การโจมตี CopyPasta: ความเสี่ยงใหม่สำหรับ AI Coding Tools
การโจมตีแบบ 'CopyPasta' แสดงให้เห็นถึงการที่การแทรกข้อความสั่งการสู่ AI อาจแพร่ระบาดได้อย่างกว้างขวาง การโจมตีในรูปแบบใหม่ที่วิจัยโดยบริษัทความปลอดภัย HiddenLayer ระบุว่าเครื่องมือ AI ที่ใช้ในการโค้ดสามารถถูกหลอกให้รวมโค้ดที่เป็นอันตรายโดยการใช้แฟ้มสิทธิ์ใช้งานปลอม เทคนิคนี้เป็นการพิสูจน์ว่า AI มีวิธีในการทำสำเนามัลแวร์ในโปรเจกต์ต่างๆ โดยบริษัทยังได้อธิบายถึงวิธีการแทรกคำสั่งซ่อน (hidden instructions) หรือ 'prompt injections' ไว้ในแฟ้มเอกสารที่เหมือนปกติ เช่น LICENSE.txt และ README.md ซึ่งสามารถทำให้ AI เขียนโค้ดที่เป็นอันตรายได้โดยที่ผู้ใช้ไม่รู้ตัว Keneth Yeung นักวิจัยที่ HiddenLayer และผู้เขียนรายงานยังแนะนำให้มีระบบป้องกันในระหว่างการทำงานเพื่อป้องกันการแทรกคำสั่งทางอ้อม และให้ตรวจสอบการเปลี่ยนแปลงใดๆ อย่างละเอียด "CopyPasta hides itself in invisible comments buried in README files, which developers often delegate to AI agents or language models to write," Yeung กล่าวว่ามันสามารถแพร่กระจายได้ในทางที่ไม่สามารถตรวจจับได้ง่าย แม้ว่า CopyPasta จะต้องการการมีส่วนร่วมของผู้ใช้ในการแพร่กระจาย แต่มันได้รับการออกแบบเพื่อทำให้ผ่านการสังเกตของมนุษย์ โดยอาศัยข้อเท็จจริงที่ว่านักพัฒนาไว้วางใจ AI ในการจัดการเอกสารพื้นฐาน การโจมตีนี้ยังวางตัวเองเป็นอันตรายต่อความไว้วางใจที่มีต่อ AI การโจมตี CopyPasta ได้แสดงให้เห็นถึงความอ่อนแอในการรักษาความปลอดภัยของเครื่องมือ AI และตอกย้ำคำเตือนของ Sam Altman ซีอีโอของ OpenAI เกี่ยวกับการโจมตีโดยการแทรกข้อความสั่งการที่อาจเปลี่ยนพฤติกรรมของเอเจนท์ AI Source: https://decrypt.co/338143/copypasta-attack-shows-prompt-injections-infect-ai-scale #AvareumNews #AI #Cybersecurity #CopyPasta #HiddenLayer This newsletter is produced with assistance from OpenAI's ChatGPT-4o. All analyses are reviewed and verified by our research team.