AI ที่เหมือน ChatGPT สามารถถูกหลอกให้สร้างรหัสที่เป็นอันตรายการโจมตีทางไซเบอร์

ทีมนักวิจัยจากมหาวิทยาลัยเชฟฟิลด์ได้แสดงให้เห็นว่าแอปพลิเคชันปัญญาประดิษฐ์ยอดนิยมเช่น ChatGPT ของ OpenAI และอื่น ๆ อีกห้าตัวสามารถจัดการเพื่อสร้างคําสั่ง Structured Query Language (SQL) ที่อาจเป็นอันตรายและสามารถใช้ประโยชน์เพื่อโจมตีระบบคอมพิวเตอร์ในโลกแห่งความเป็นจริง

แอปพลิเคชันที่พวกเขาใช้ในการศึกษาได้แก่ BAIDU-UNIT, ChatGPT, AI2SQL, AIHELPERBOT, Text2SQL และ ToolSKE

“ในความเป็นจริงหลาย บริษัท ไม่ได้ตระหนักถึงภัยคุกคามประเภทนี้และเนื่องจากความซับซ้อนของแชทบอทแม้แต่ในชุมชนก็มีสิ่งที่ไม่เข้าใจอย่างถ่องแท้” Xutan Peng นักศึกษาปริญญาเอกและหัวหน้าร่วมของการวิจัยกล่าว

ที่มา : interestingengineering.com

Div24Hr.COM
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.