
มีการเปิดเผยรายละเอียดเกี่ยวกับช่องโหว่ที่ได้รับการแก้ไขแล้วใน Microsoft 365 Copilot ซึ่งอาจทำให้สามารถขโมยข้อมูลที่สำคัญของผู้ใช้ได้ โดยใช้เทคนิคที่เรียกว่า ASCII Smuggling
Johann Rehberger นักวิจัยด้านความปลอดภัยระบุว่า "ASCII Smuggling เป็นเทคนิคใหม่ที่ใช้ตัวอักษร Unicode พิเศษที่คล้ายกับ ASCII แต่ในความเป็นจริงแล้ว จะไม่สามารถมองเห็นได้ในส่วนอินเทอร์เฟซของผู้ใช้งาน"
"นั่นหมายความว่าผู้โจมตีสามารถทำให้ LLM (large language model) อย่าง Copilot แสดงข้อมูลที่มองไม่เห็นให้กับผู้ใช้งาน และฝังข้อมูลเหล่านั้นไว้ใน hyperlinks ที่สามารถคลิกได้ เทคนิคนี้โดยพื้นฐานแล้วจะเป็นการจัดเตรียมสำหรับการขโมยข้อมูลออกไป"
การโจมตีทั้งหมดนี้เป็นวิธีการเชื่อมโยงการโจมตีหลายรูปแบบเข้าด้วยกันเพื่อสร้างการโจมตีซึ่งประกอบด้วยขั้นตอนต่อไปนี้ :
- Trigger การแทรกคำสั่ง (prompt injection) ผ่านเนื้อหาที่เป็นอันตราย ซึ่งซ่อนอยู่ในเอกสารที่มีการแชร์ในแชท
- ใช้ payload การแทรกคำสั่ง (prompt injection) เพื่อสั่งให้ Copilot ค้นหาอีเมล และเอกสารเพิ่มเติม
- ใช้การโจมตีจาก ASCII smuggling เพื่อล่อลวงให้ผู้ใช้คลิกลิงก์เพื่อขโมยข้อมูลที่สำคัญส่งไปยังเซิร์ฟเวอร์ภายนอก
ผลลัพธ์โดยรวมของการโจมตีคือข้อมูลที่สำคัญที่อยู่ในอีเมล รวมถึงรหัสการยืนยันตัวตนแบบ multi-factor authentication (MFA) อาจถูกส่งไปยังเซิร์ฟเวอร์ที่ควบคุมโดยผู้โจมตี โดยทาง Microsoft ได้แก้ไขปัญหาเหล่านี้แล้วภายหลังจากได้รับการเปิดเผยในเดือนมกราคม 2024 ที่ผ่านมา
การพัฒนาเกิดขึ้นเนื่องจากมีการสาธิตการโจมตี proof-of-concept (PoC) ต่อระบบ Copilot ของ Microsoft เพื่อควบคุมการ response, การขโมยข้อมูลส่วนตัว และหลีกเลี่ยงการป้องกันด้านความปลอดภัย ซึ่งแสดงให้เห็นถึงความจำเป็นในการเฝ้าระวังความเสี่ยงในเครื่องมือปัญญาประดิษฐ์ (AI) อีกด้วย
วิธีการดังกล่าวที่ Zenity ได้อธิบายรายละเอียดไว้ คือการทำให้ผู้โจมตีสามารถทำการโจมตีแบบ retrieval-augmented generation (RAG) ที่เป็นอันตราย และ prompt injection ทางอ้อม ที่นำไปสู่การโจมตีด้วยการเรียกใช้โค้ดที่เป็นอันตรายจากระยะไกล ที่สามารถควบคุม Microsoft Copilot และแอป AI อื่น ๆ ได้อย่างสมบูรณ์ ในสถานการณ์การโจมตีในทางทฤษฎี แฮ็กเกอร์อาจหลอกล่อเหยื่อโดยให้ Copilot นำเสนอหน้าฟิชชิงแก่ผู้ใช้งานได้
การโจมตีที่แปลกใหม่ที่สุด คือความสามารถในการเปลี่ยน AI ให้กลายเป็นเครื่องมือฟิชชิงแบบ spear-phishing โดยการใช้เทคนิคที่เรียกว่า LOLCopilot ซึ่งจะทำให้ผู้โจมตีที่สามารถเข้าถึงบัญชีอีเมลของเหยื่อ สามารถส่งข้อความฟิชชิงที่เลียนแบบสไตล์ของผู้ใช้งานที่ถูกแฮ็กได้
Microsoft ยังยอมรับด้วยว่า Bot Copilot ที่มีการเปิดเผยต่อสาธารณะซึ่งถูกสร้างขึ้นโดยใช้ Microsoft Copilot Studio และไม่มีการป้องกันการยืนยันตัวตนอาจเป็นช่องโหว่ที่ทำให้ผู้โจมตีสามารถดึงข้อมูลที่สำคัญออกไปได้ หากพวกเขามีข้อมูลชื่อ หรือ URL ของ Copilot มาก่อน
Rehberger ระบุว่า "องค์กรต่าง ๆ ควรประเมินการยอมรับความเสี่ยง และการเปิดเผยข้อมูล เพื่อป้องกันการรั่วไหลของข้อมูลจาก Copilots (เดิมชื่อว่า Power Virtual Agents) และเปิดใช้งานการป้องกันการสูญหายของข้อมูล และการควบคุมความปลอดภัยอื่น ๆ ตามความเหมาะสมเพื่อควบคุมการสร้าง และการเผยแพร่ของ Copilots"
ที่มา : thehackernews

You must be logged in to post a comment.