AI ที่เหมือน ChatGPT สามารถถูกหลอกให้สร้างรหัสที่เป็นอันตรายการโจมตีทางไซเบอร์

ทีมนักวิจัยจากมหาวิทยาลัยเชฟฟิลด์ได้แสดงให้เห็นว่าแอปพลิเคชันปัญญาประดิษฐ์ยอดนิยมเช่น ChatGPT ของ OpenAI และอื่น ๆ อีกห้าตัวสามารถจัดการเพื่อสร้างคําสั่ง Structured Query Language (SQL) ที่อาจเป็นอันตรายและสามารถใช้ประโยชน์เพื่อโจมตีระบบคอมพิวเตอร์ในโลกแห่งความเป็นจริง

แอปพลิเคชันที่พวกเขาใช้ในการศึกษาได้แก่ BAIDU-UNIT, ChatGPT, AI2SQL, AIHELPERBOT, Text2SQL และ ToolSKE

“ในความเป็นจริงหลาย บริษัท ไม่ได้ตระหนักถึงภัยคุกคามประเภทนี้และเนื่องจากความซับซ้อนของแชทบอทแม้แต่ในชุมชนก็มีสิ่งที่ไม่เข้าใจอย่างถ่องแท้” Xutan Peng นักศึกษาปริญญาเอกและหัวหน้าร่วมของการวิจัยกล่าว

ที่มา : interestingengineering.com

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

ตั้งค่าความเป็นส่วนตัว

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

ยอมรับทั้งหมด
จัดการความเป็นส่วนตัว
  • เปิดใช้งานตลอด

บันทึกการตั้งค่า