Google ออกมาชี้แจงว่าแอป Android System SafetyCore ที่เพิ่งเปิดตัวใหม่นั้น ไม่ได้ทำการสแกนเนื้อหาใด ๆ บนอุปกรณ์ของผู้ใช้
โฆษกของ Google ชี้แจงกับ The Hacker News โดยระบุว่า "Android มีระบบป้องกันหลายอย่างบนอุปกรณ์ที่ช่วยปกป้องผู้ใช้จากภัยคุกคามต่าง ๆ เช่น มัลแวร์, สแปมข้อความ, การป้องกันการละเมิด และการป้องกันการหลอกลวงทางโทรศัพท์ โดยยังคงรักษาความเป็นส่วนตัวของผู้ใช้ และให้ผู้ใช้สามารถควบคุมข้อมูลของตนเองได้"
"SafetyCore เป็นบริการระบบใหม่ของ Google สำหรับอุปกรณ์ที่ใช้ Android 9 ขึ้นไป ที่ให้โครงสร้างพื้นฐานบนอุปกรณ์สำหรับการจำแนกประเภทเนื้อหาอย่างปลอดภัย และเป็นส่วนตัว เพื่อช่วยให้ผู้ใช้ตรวจจับเนื้อหาที่ไม่พึงประสงค์ ผู้ใช้สามารถควบคุม SafetyCore ได้ และ SafetyCore จะทำการจำแนกประเภทเนื้อหาเฉพาะเมื่อแอปร้องขอผ่านฟีเจอร์ที่เปิดใช้งานได้ตามความสมัครใจ"
SafetyCore (ชื่อแพ็กเกจ "com.google.android.safetycore") ถูกเปิดตัวครั้งแรกโดย Google ในเดือนตุลาคม 2024 โดยเป็นส่วนหนึ่งของมาตรการรักษาความปลอดภัยที่ออกแบบมาเพื่อป้องกันการหลอกลวง และเนื้อหาที่มีความอ่อนไหวในแอป Google Messages สำหรับ Android
ฟีเจอร์นี้ต้องการใช้ RAM อย่างน้อย 2GB และกำลังทยอยเปิดให้ใช้งานบนอุปกรณ์ Android ทุกรุ่นที่ใช้ Android เวอร์ชั่น 9 ขึ้นไป รวมถึงอุปกรณ์ที่ใช้ Android Go ที่เป็นระบบปฏิบัติการอีกเวอร์ชันที่ออกแบบมาสำหรับสมาร์ทโฟนในระดับเริ่มต้น
ในทางกลับกัน การสแกนที่ฝั่งผู้ใช้ (Client-side scanning หรือ CSS) ถูกมองว่าเป็นวิธีการทางเลือกที่ช่วยให้สามารถวิเคราะห์ข้อมูลบนอุปกรณ์ได้ โดยไม่ต้องลดระดับการเข้ารหัส หรือสร้างช่องโหว่ในระบบ อย่างไรก็ตาม วิธีนี้ได้สร้างความกังวลด้านความเป็นส่วนตัวอย่างมาก เนื่องจากอาจถูกนำไปใช้ในทางที่ผิดได้ โดยการบังคับให้ผู้ให้บริการค้นหาเนื้อหาที่อยู่นอกเหนือจากขอบเขตที่ตกลงกันไว้ในตอนแรก
ในบางมุม ฟีเจอร์ Sensitive Content Warnings ของ Google สำหรับแอป Messages นั้นคล้ายกับฟีเจอร์ Communication Safety ของ Apple ใน iMessage อยู่มาก โดยทั้งสองใช้การเรียนรู้บนอุปกรณ์ (on-device machine learning) เพื่อวิเคราะห์ไฟล์แนบรูปภาพ และวิดีโอ และตรวจจับว่ามีภาพโป๊เปลือยอยู่หรือไม่
ทีมพัฒนา GrapheneOS ได้ออกมาโพสต์บน X เพื่อย้ำว่า SafetyCore ไม่ได้ทำการสแกนเนื้อหาฝั่งไคลเอนต์ (Client-Side Scanning) แต่ถูกออกแบบมาเพื่อให้ machine-learning models บนอุปกรณ์ที่มีแอปพลิเคชันอื่น ๆ สามารถใช้เพื่อจัดประเภทเนื้อหาว่าเป็นสแปม, การหลอกลวง หรือเป็นมัลแวร์หรือไม่
GrapheneOS ระบุว่า "การจัดประเภทเนื้อหาแบบนี้ ไม่เหมือนกับการพยายามตรวจจับเนื้อหาที่ผิดกฎหมายแล้วรายงานไปยังผู้ให้บริการ และการทำเช่นนั้นจะเป็นการละเมิดความเป็นส่วนตัวของผู้ใช้อย่างร้ายแรงในหลาย ๆ ด้าน และยังคงมีโอกาสเกิดข้อผิดพลาดได้ ฟีเจอร์นี้ไม่ได้ทำในลักษณะนั้น และไม่สามารถใช้เพื่อเป็นจุดประสงค์ดังกล่าวได้"
ที่มา : thehackernews.com
You must be logged in to post a comment.