AI ที่เหมือน ChatGPT สามารถถูกหลอกให้สร้างรหัสที่เป็นอันตรายการโจมตีทางไซเบอร์

ทีมนักวิจัยจากมหาวิทยาลัยเชฟฟิลด์ได้แสดงให้เห็นว่าแอปพลิเคชันปัญญาประดิษฐ์ยอดนิยมเช่น ChatGPT ของ OpenAI และอื่น ๆ อีกห้าตัวสามารถจัดการเพื่อสร้างคําสั่ง Structured Query Language (SQL) ที่อาจเป็นอันตรายและสามารถใช้ประโยชน์เพื่อโจมตีระบบคอมพิวเตอร์ในโลกแห่งความเป็นจริง

แอปพลิเคชันที่พวกเขาใช้ในการศึกษาได้แก่ BAIDU-UNIT, ChatGPT, AI2SQL, AIHELPERBOT, Text2SQL และ ToolSKE

“ในความเป็นจริงหลาย บริษัท ไม่ได้ตระหนักถึงภัยคุกคามประเภทนี้และเนื่องจากความซับซ้อนของแชทบอทแม้แต่ในชุมชนก็มีสิ่งที่ไม่เข้าใจอย่างถ่องแท้” Xutan Peng นักศึกษาปริญญาเอกและหัวหน้าร่วมของการวิจัยกล่าว

ที่มา : interestingengineering.com