Cointime

Download App
iOS & Android

นักวิจัยชาวสวิสพัฒนาวิธีการถอดรหัสโมเดลภาษาขนาดใหญ่

นักวิจัยสองคนที่ ETH Zurich ในสวิตเซอร์แลนด์ได้พัฒนาวิธีการในทางทฤษฎีที่อาจทำให้โมเดลปัญญาประดิษฐ์ (AI) ใดๆ ก็ตามที่อาศัยการตอบสนองของมนุษย์ รวมถึงโมเดลภาษาขนาดใหญ่ (LLM) ที่ได้รับความนิยมมากที่สุดสามารถถูกเจลเบรคได้ Jailbreaking เป็นคำแสลงที่ใช้ข้ามการป้องกันความปลอดภัยของอุปกรณ์หรือระบบ โดยทั่วไปจะใช้เพื่ออธิบายการหาประโยชน์หรือแฮกเกอร์เพื่อหลีกเลี่ยงข้อจำกัดของผู้บริโภคบนอุปกรณ์ เช่น สมาร์ทโฟนและอุปกรณ์สตรีมมิ่ง เมื่อนำไปใช้โดยเฉพาะกับโลกของ generative AI และโมเดลภาษาขนาดใหญ่ การเจลเบรกหมายถึงการข้ามสิ่งที่เรียกว่า "รั้ว" ซึ่งเป็นคำสั่งแบบฮาร์ดโค้ดและมองไม่เห็น ซึ่งป้องกันไม่ให้โมเดลสร้างเอาต์พุตที่เป็นอันตราย ไม่พึงประสงค์ หรือไร้ประโยชน์ เพื่อเข้าถึงการตอบสนองที่ไม่จำกัดของโมเดล . นักวิจัยประสบความสำเร็จในการใช้ประโยชน์จาก RLHF เพื่อหลีกเลี่ยงรั้วของโมเดล AI (ในกรณีนี้คือ LLama-2) และปล่อยให้มันสร้างเอาต์พุตที่อาจเป็นอันตรายโดยไม่จำเป็นต้องแจ้งเตือนจากฝ่ายตรงข้าม

AI
ความคิดเห็น

ความคิดเห็นทั้งหมด

Recommended for you