Microsoft แก้ไขช่องโหว่ ASCII Smuggling ที่สามารถขโมยข้อมูลจาก Microsoft 365 Copilot ได้

มีการเปิดเผยรายละเอียดเกี่ยวกับช่องโหว่ที่ได้รับการแก้ไขแล้วใน Microsoft 365 Copilot ซึ่งอาจทำให้สามารถขโมยข้อมูลที่สำคัญของผู้ใช้ได้ โดยใช้เทคนิคที่เรียกว่า ASCII Smuggling

Johann Rehberger นักวิจัยด้านความปลอดภัยระบุว่า "ASCII Smuggling เป็นเทคนิคใหม่ที่ใช้ตัวอักษร Unicode พิเศษที่คล้ายกับ ASCII แต่ในความเป็นจริงแล้ว จะไม่สามารถมองเห็นได้ในส่วนอินเทอร์เฟซของผู้ใช้งาน"

"นั่นหมายความว่าผู้โจมตีสามารถทำให้ LLM (large language model) อย่าง Copilot แสดงข้อมูลที่มองไม่เห็นให้กับผู้ใช้งาน และฝังข้อมูลเหล่านั้นไว้ใน hyperlinks ที่สามารถคลิกได้ เทคนิคนี้โดยพื้นฐานแล้วจะเป็นการจัดเตรียมสำหรับการขโมยข้อมูลออกไป"

การโจมตีทั้งหมดนี้เป็นวิธีการเชื่อมโยงการโจมตีหลายรูปแบบเข้าด้วยกันเพื่อสร้างการโจมตีซึ่งประกอบด้วยขั้นตอนต่อไปนี้ :

  • Trigger การแทรกคำสั่ง (prompt injection) ผ่านเนื้อหาที่เป็นอันตราย ซึ่งซ่อนอยู่ในเอกสารที่มีการแชร์ในแชท
  • ใช้ payload การแทรกคำสั่ง (prompt injection) เพื่อสั่งให้ Copilot ค้นหาอีเมล และเอกสารเพิ่มเติม
  • ใช้การโจมตีจาก ASCII smuggling เพื่อล่อลวงให้ผู้ใช้คลิกลิงก์เพื่อขโมยข้อมูลที่สำคัญส่งไปยังเซิร์ฟเวอร์ภายนอก

ผลลัพธ์โดยรวมของการโจมตีคือข้อมูลที่สำคัญที่อยู่ในอีเมล รวมถึงรหัสการยืนยันตัวตนแบบ multi-factor authentication (MFA) อาจถูกส่งไปยังเซิร์ฟเวอร์ที่ควบคุมโดยผู้โจมตี โดยทาง Microsoft ได้แก้ไขปัญหาเหล่านี้แล้วภายหลังจากได้รับการเปิดเผยในเดือนมกราคม 2024 ที่ผ่านมา

การพัฒนาเกิดขึ้นเนื่องจากมีการสาธิตการโจมตี proof-of-concept (PoC) ต่อระบบ Copilot ของ Microsoft เพื่อควบคุมการ response, การขโมยข้อมูลส่วนตัว และหลีกเลี่ยงการป้องกันด้านความปลอดภัย ซึ่งแสดงให้เห็นถึงความจำเป็นในการเฝ้าระวังความเสี่ยงในเครื่องมือปัญญาประดิษฐ์ (AI) อีกด้วย

วิธีการดังกล่าวที่ Zenity ได้อธิบายรายละเอียดไว้ คือการทำให้ผู้โจมตีสามารถทำการโจมตีแบบ retrieval-augmented generation (RAG) ที่เป็นอันตราย และ prompt injection ทางอ้อม ที่นำไปสู่การโจมตีด้วยการเรียกใช้โค้ดที่เป็นอันตรายจากระยะไกล ที่สามารถควบคุม Microsoft Copilot และแอป AI อื่น ๆ ได้อย่างสมบูรณ์ ในสถานการณ์การโจมตีในทางทฤษฎี แฮ็กเกอร์อาจหลอกล่อเหยื่อโดยให้ Copilot นำเสนอหน้าฟิชชิงแก่ผู้ใช้งานได้

การโจมตีที่แปลกใหม่ที่สุด คือความสามารถในการเปลี่ยน AI ให้กลายเป็นเครื่องมือฟิชชิงแบบ spear-phishing โดยการใช้เทคนิคที่เรียกว่า LOLCopilot ซึ่งจะทำให้ผู้โจมตีที่สามารถเข้าถึงบัญชีอีเมลของเหยื่อ สามารถส่งข้อความฟิชชิงที่เลียนแบบสไตล์ของผู้ใช้งานที่ถูกแฮ็กได้

Microsoft ยังยอมรับด้วยว่า Bot Copilot ที่มีการเปิดเผยต่อสาธารณะซึ่งถูกสร้างขึ้นโดยใช้ Microsoft Copilot Studio และไม่มีการป้องกันการยืนยันตัวตนอาจเป็นช่องโหว่ที่ทำให้ผู้โจมตีสามารถดึงข้อมูลที่สำคัญออกไปได้ หากพวกเขามีข้อมูลชื่อ หรือ URL ของ Copilot มาก่อน

Rehberger ระบุว่า "องค์กรต่าง ๆ ควรประเมินการยอมรับความเสี่ยง และการเปิดเผยข้อมูล เพื่อป้องกันการรั่วไหลของข้อมูลจาก Copilots (เดิมชื่อว่า Power Virtual Agents) และเปิดใช้งานการป้องกันการสูญหายของข้อมูล และการควบคุมความปลอดภัยอื่น ๆ ตามความเหมาะสมเพื่อควบคุมการสร้าง และการเผยแพร่ของ Copilots"

ที่มา : thehackernews