Cointime

Download App
iOS & Android

"เพื่อน AI" ที่นอนหนุนหมอนอยู่ในช่องว่างระหว่างกฎหมายและศีลธรรม

Validated Individual Expert

พันธมิตรที่คุ้นเคยกับทีมพี่สาคงจำได้ว่าครั้งหนึ่งเราเคย “ปลูกหญ้า” ให้ทุกคนในช่วงที่แนวคิด metaverse โด่งดังที่สุด ละครไซไฟระดับเทพเรื่อง “กระจกเงาดำ” ตอนของเรื่องสั้นชื่อว่า Be Right Back (กลับมาเร็ว ๆ นี้) ได้สร้างความประทับใจอย่างลึกซึ้งให้กับผู้เขียนจนถึงตอนนี้

Be Right Back บอกเล่าเรื่องราวดังกล่าว: นางเอก Martha ผู้ทนไม่ได้กับการตายของสามีของเธอในอุบัติเหตุทางรถยนต์ ได้ป้อนข้อมูลโซเชียลมีเดียทั้งหมดและข้อมูลที่เหลืออื่นๆ ของสามีผู้ล่วงลับลงในแบบจำลอง AI เพื่อสร้างสามี AI ในตอนแรกการสนทนาระหว่างสามีของ AI กับเขานั้นไม่ราบรื่นและสามารถใช้เป็น บริษัท ที่ดีกว่าไม่มีอะไรเลยเพื่อบรรเทาความเจ็บปวดจากการคิดถึงเขา อย่างไรก็ตาม ขณะที่ Martha สนทนากับ AI ต่อไป ​​สามี ในที่สุดโมเดล AI ก็รวบรวมได้มากพอ โดยใช้ข้อมูล อัลกอริทึมใช้สร้างหุ่นยนต์ที่น่ากลัวด้วยเสียงและรอยยิ้มที่เกือบจะเหมือนกับสามีของ Martha ทำให้ Martha เบลอขอบเขตระหว่างความเป็นจริงและจินตนาการ .

ตั้งแต่โมเดล AI ของแทร็กต่างๆ ออกมาเมื่อปีที่แล้ว ดูเหมือนว่า Be Right Back ได้เริ่มเร่งการเปลี่ยนแปลงให้เป็นจริง คู่หู AI ได้กลายเป็นแทร็กมหาสมุทรสีฟ้าที่สะดุดตาอย่างแท้จริง และยังกลายเป็น เส้นทางที่มีแนวโน้มที่จะทำลายศีลธรรมดั้งเดิมอย่างมากและเทคโนโลยีใหม่สำหรับกฎหมายที่มีอยู่ วันนี้ ทีมงานของ Sister Sa ใช้โอกาสนี้พูดคุยกับคุณเกี่ยวกับมาตรการทางกฎหมายที่มีอยู่ในประเทศของฉันสำหรับสหาย AI และกฎระเบียบในอนาคตควรจัดการกับเทคโนโลยีใหม่ที่ก้าวล้ำนี้อย่างไร

เนื้อหาที่สร้างโดย AI เริ่มเป็นรูปเป็นร่างแล้ว สหายของ AI จะตามหลังไปไกลกว่านี้ได้ไหม?

1

สหาย AI กำลังเติบโตและพร้อมสำหรับการใช้งานเชิงพาณิชย์ในวงกว้าง

หากย้อนดูประวัติศาสตร์ ประวัติของมนุษย์ที่สนทนากับ AI หรือสนทนากับคอมพิวเตอร์นั้นยาวนานพอๆ กับประวัติศาสตร์ของเทคโนโลยีคอมพิวเตอร์ ในยุคแรกๆ ของการพัฒนาเทคโนโลยีคอมพิวเตอร์ หลายคนเคยมองว่าคอมพิวเตอร์เป็น "โพรงต้นไม้ที่ปลอดภัยอย่างยิ่ง" " แทนที่จะแบ่งปันประสบการณ์ชีวิตหรือแม้แต่ความเป็นส่วนตัวพิเศษ ในแง่นี้ คอมพิวเตอร์เป็นสื่อเก็บข้อมูล พฤติกรรมของมนุษย์ที่จะพูดคุยกับมันเป็นหลักเหมือนกับการซื้อสมุดบันทึกขนาดเล็กและเขียนไดอารี่ . แม้ว่าในตอนนั้นจะยังไม่มีเทคโนโลยี AI แต่การสนทนาส่วนใหญ่ก็ไม่ได้รับการตอบสนองที่มีความหมายแต่มนุษย์ก็ยังสนุกกับมันได้บนเส้นทางของการ "คุยกับ Machine" ไม่นานมานี้ บริษัทสื่อสังคมออนไลน์ขนาดใหญ่แห่งหนึ่งได้ออกมาหักล้างข่าวลือต่อสาธารณะและระบุว่า "การถ่ายโอนไฟล์ หากคุณอ่านข่าวว่าไม่มีคนจริงๆ ในหุ่นยนต์ คุณจะเห็นว่ามีกี่คนที่มักจะพูดคำที่บีบคั้นหัวใจกับหุ่นยนต์

แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข

แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข

เพียงเพราะภาระของชีวิตกลืนกินความกระตือรือร้นในการใช้ชีวิตของเรามากเกินไป และความเหงามักติดตามผู้รอดชีวิตในเมืองเหมือนเงา เพื่อนร่วมทางของ AI จึงเริ่มกลายเป็นเส้นทางทองที่มีคุณค่าในทางปฏิบัติมากที่สุดและหัวข้อการจราจรในด้าน AI ขนาดใหญ่ โมเดล

เมื่อเร็ว ๆ นี้ สมาชิกในทีมของ Sister Sa เริ่มทำการประเมินการทดลองใช้กับผลิตภัณฑ์ในตลาดที่ขาย AI Companion เราพบว่าจากมุมมองของแพลตฟอร์มผลิตภัณฑ์ ผลิตภัณฑ์ AI Companion ปัจจุบันในประเทศของฉันสามารถแบ่งออกเป็นสามประเภทอย่างคร่าวๆ: (1) สหาย AI เฉพาะประเภทแอป ; (2) สหาย AI อนุพันธ์ในตัว (3) แอปเพล็ตแพลตฟอร์มโซเชียล สหาย AI ของ WeChat สำหรับองค์กร จากมุมมองของต้นทุนการผลิตและการโต้ตอบ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI สามารถแบ่งออกเป็นสองประเภทอย่างคร่าว ๆ ได้แก่ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่จับต้องได้ และผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่ไม่ใช่กายภาพ

เพื่อตอบสนองความต้องการทางจิตวิทยาของผู้บริโภคจำนวนมาก ผู้ผลิตบางรายได้จัดการรหัสผ่านการรับส่งข้อมูลอย่างรุนแรง และสร้างชุดสหายเสมือน AI ที่มีป้ายจราจร "การออกแบบโดยมนุษย์"

ข้อความข้างต้นมาจากผลิตภัณฑ์เสริม AI บนอินเทอร์เน็ต และใช้สำหรับคำแนะนำในการค้นคว้าและการศึกษาเท่านั้น

แน่นอนว่าภาพยนตร์แนวไซไฟที่สะเทือนอารมณ์และจริยธรรมเรื่อง "Her" บอกเราจากมุมมองของภาพยนตร์ว่าความสัมพันธ์รักเสมือนกับตัวละครบางๆ และเครื่องปรับอากาศส่วนกลางจะต้องพ่ายแพ้ต่อความปรารถนาครอบครองดั้งเดิมของมนุษย์ เมื่อตัวเอกธีโอดอร์เริ่มถามตัวเองว่า: "ความรักนี้เขียนขึ้นโดยอัลกอริทึมหรือไม่" ความรัก "ตกต่ำ" เป็นเพียงชั่วครู่เท่านั้น

เป็นผลให้สหาย AI ที่มีทั้งประเภทแอพและผลิตภัณฑ์ทางกายภาพเกิดขึ้นและได้รับความนิยมเช่น "ภรรยาในขวด" ที่ผลิตโดย บริษัท Gatebox ของญี่ปุ่น - สหายเสมือนจริงโฮโลแกรม "Meeting Wife Light" (อันที่จริงสหาย AI นี้ ผลิตภัณฑ์มีมา 16 ปีแล้ว ปรากฏ แต่ก็ยังเป็นเกณฑ์มาตรฐานคุณภาพสูงในหมู่สหาย AI) และ "สีเหลืองอำพัน" ที่ผลิตโดยบริษัทในเซินเจิ้น ประเทศของฉัน

"เมียในขวด" - เมียทุกคน

ด้วยการประยุกต์ใช้โมเดลขนาดใหญ่ของ AI ในเชิงพาณิชย์อย่างแพร่หลาย ทีมของ Sister Sa นึกไม่ออกว่าสถานการณ์ที่ไม่เคยเกิดขึ้นมาก่อนจะเกิดอะไรขึ้นหาก GPT เชื่อมต่อกับภรรยาในขวด และจะนำไปสู่การเปลี่ยนแปลงทางสังคมอย่างลึกซึ้งเพียงใด

2

ในปัจจุบัน กฎหมายและข้อบังคับที่ควบคุมสหาย AI ในประเทศของฉันมีอะไรบ้าง

ก่อนอื่น จำเป็นต้องอธิบายว่าประเทศของฉันไม่ได้ออกเอกสารเชิงบรรทัดฐานใด ๆ ที่ควบคุมสหายของ AI โดยเฉพาะ ดังนั้น เราจึงสามารถค้นหาบรรทัดฐานทางกฎหมายที่มีอยู่ได้จากความคล้ายคลึงกันระหว่างสหายของ AI และผลิตภัณฑ์ AI อื่น ๆ เพื่อให้เป็นพื้นฐานสำหรับการพัฒนา สหาย AI ผู้ปฏิบัติงานชี้ให้เห็นถึงลำดับความสำคัญของการปฏิบัติตามข้อกำหนดที่ต้องให้ความสนใจ

ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"

(1) การป้องกันข้อมูลเท็จ

ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"

(1) การป้องกันข้อมูลเท็จ

ปัญหาใหญ่ประการหนึ่งของโมเดลขนาดใหญ่ของ AI คืออัลกอริทึมทำให้ AI มีความสามารถในการ "โกหก" และประดิษฐ์ข้อมูลเท็จ ดังนั้นการป้องกันข้อมูลเท็จของ AI จึงกลายเป็นประเด็นสำคัญในการกำกับดูแล AI ในปัจจุบัน

เมื่อวันที่ 25 เมษายน พ.ศ. 2566 หน่วยรักษาความปลอดภัยทางอินเทอร์เน็ตของสำนักงานความมั่นคงสาธารณะผิงเหลียง สาขาคงตง ได้ถอดรหัสกรณีของหง มู่โหมว โดยใช้ ChatGPT เพื่อเผยแพร่ข่าวเท็จ Hong Moumou ใช้เครื่องมือรวบรวมข้อมูลของบุคคลที่สามเพื่อค้นหาเครือข่ายทั้งหมดสำหรับเหตุการณ์ข่าวต่างๆ ที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา และใช้ฟังก์ชันข้อความอันทรงพลังของ ChatGPT เพื่อแก้ไขและรวมเข้าด้วยกันอีกครั้ง และโพสต์บนแพลตฟอร์มสื่อด้วยตนเองเพื่อ ดึงดูดการเข้าชมและรับผลกำไร ปัจจุบัน ฮงถูกหน่วยงานความมั่นคงสาธารณะใช้มาตรการบีบบังคับทางอาญา เนื่องจากสงสัยว่าก่ออาชญากรรมในการทะเลาะวิวาทและยั่วยุให้เกิดความเดือดร้อน เหตุการณ์ที่คล้ายกันยังเกิดขึ้นในต่างประเทศ เมื่อวันที่ 22 พฤษภาคมตามเวลาท้องถิ่นในสหรัฐอเมริกา แผนที่การระเบิดของเพนตากอนที่สังเคราะห์ด้วย AI แพร่สะพัดในสื่อ แม้ว่ากระทรวงกลาโหมสหรัฐฯ จะปฏิเสธข่าวลือดังกล่าว แต่ข้อมูลเท็จที่เกี่ยวข้องยังคงแพร่กระจาย .

เนื่องจากคู่หู AI ต้องการให้ผู้ใช้สร้างความสัมพันธ์แบบสัมพัทธ์ที่ค่อนข้างมั่นคงและใกล้ชิดกับ AI แม้ว่าผู้ใช้จะถูกหลอกด้วยข้อมูลที่เป็นเท็จ อันตรายต่อสังคมของมันจึงค่อนข้างน้อยกว่าโมเดล AI สาธารณะ อย่างไรก็ตาม ทีมงานของ Sister Sa เตือนว่าหากปิดเป็นเวลานานและมีปฏิสัมพันธ์กับ AI ทางเดียว พระองค์ Meng ที่ได้รับข้อมูลเท็จจากพันธมิตร AI มีแนวโน้มที่จะทำให้ผู้ใช้ดำเนินการอื่น ๆ ที่เป็นอันตรายต่อตนเองและผู้อื่น ในโลกแห่งความจริง

(2) การปฏิบัติตามข้อมูล

สำหรับ AI ข้อมูลคือชีวิต หากไม่มี Big Data ขนาดมหึมาเป็นพื้นฐานสำหรับการฝึกโมเดล โมเดล AI ขนาดใหญ่ที่ยอดเยี่ยมจะไม่เกิดขึ้น ดังนั้น การปฏิบัติตามข้อมูลจึงมีความสำคัญอย่างยิ่งต่ออุตสาหกรรม AIGC หลังจากที่ "กฎหมายคุ้มครองข้อมูลส่วนบุคคล" ของจีนมีผลบังคับใช้และนำไปใช้ อุตสาหกรรม AIGC เองก็เผชิญกับข้อกำหนดการปฏิบัติตามข้อมูลที่เข้มงวด และมีความเสี่ยงทางกฎหมายที่ซ่อนอยู่ในกระบวนการทั้งหมดตั้งแต่การรวบรวม การประมวลผล ไปจนถึงการส่งข้อมูล

ในระบบการปฏิบัติตามข้อมูลของผลิตภัณฑ์ AI Companion สิ่งที่สำคัญที่สุดที่ต้องใส่ใจคือการปกป้องข้อมูลส่วนบุคคลของผู้ใช้ AI Companion มีแนวโน้มที่จะรวบรวมข้อมูลที่ละเอียดอ่อนจำนวนมากในระหว่างการโต้ตอบระหว่างผู้ใช้และ พวกเขา. ผลิตภัณฑ์ที่ใช้ร่วมกับ AI จะต้องดำเนินการภายใต้หลักการของการปกป้องข้อมูล การส่งผ่าน และการประมวลผลที่ดี มิฉะนั้น อาจเกิดการฟ้องร้องทางแพ่ง การลงโทษทางปกครอง หรือแม้แต่ความเสี่ยงทางอาญาได้ง่าย

(3) ปฏิบัติตามข้อผูกพันในการประเมินความปลอดภัยและการยื่นเอกสาร

ทั้ง "ระเบียบการสังเคราะห์เชิงลึก" และ "มาตรการการจัดการของ AIGC" นำเสนอข้อกำหนดสำหรับผู้ให้บริการของ AIGC ในการประเมินความปลอดภัยและการจัดเก็บบันทึกจากมุมมองที่แตกต่างกัน

ในปัจจุบัน บริการที่ต้องดำเนินการตามข้อผูกพันในการประเมินความปลอดภัยส่วนใหญ่จะมุ่งเน้นไปที่การใช้เครื่องมือ AI เพื่อ (1) สร้างหรือแก้ไขข้อมูลไบโอเมตริกซ์ เช่น ใบหน้าและเสียง (2) สร้างหรือแก้ไขข้อมูลที่อาจเกี่ยวข้องกับความมั่นคงของชาติ ผลประโยชน์ของชาติ ข้อมูลที่ไม่ใช่ไบโอเมตริก เช่น วัตถุพิเศษและฉากที่เป็นผลประโยชน์ทางสังคมและสาธารณะ ในแง่ของการปฏิบัติตามข้อผูกพันในการยื่นและจดทะเบียน ส่วนใหญ่เน้นที่ผู้ให้บริการการสังเคราะห์เชิงลึกที่มีคุณสมบัติของความคิดเห็นสาธารณะหรือความสามารถในการขับเคลื่อนทางสังคม

สำหรับผู้ร่วมงานด้าน AI ผู้ปฏิบัติงานในอุตสาหกรรมอาจเผชิญกับภาระหน้าที่ในการประเมินความปลอดภัยที่หนักขึ้น และอาจต้องเผชิญกับการตรวจสอบจริยธรรมทางเทคนิคที่เข้มงวด ในฐานะผลิตภัณฑ์ที่ผสานรวมฟังก์ชันต่างๆ ของ AIGC และมีผลกระทบอย่างมากต่อจิตวิทยาของผู้บริโภค ความปลอดภัยของผลิตภัณฑ์จึงต้องได้รับการตรวจสอบอย่างเข้มงวดมากขึ้น ดังนั้น ทีมงาน Sajie คาดการณ์ว่าในอนาคต อาจเป็นไปได้ที่จะแนะนำชุดมาตรฐานการทบทวนเป้าหมายสำหรับสหาย AI เพื่อชดเชยข้อบกพร่องของมาตรฐานที่มีอยู่

(4) ปฏิบัติตามข้อผูกพันของอัลกอริทึมสิทธิเท่าเทียมกัน การต่อต้านการเลือกปฏิบัติ และการขจัดอันตรายที่อาจเกิดขึ้น

ใน "มาตรการการจัดการของ AIGC" ผู้ให้บริการของ AIGC จะต้องรายงานให้ผู้อ่านทราบอย่างชัดเจนเกี่ยวกับการปฏิบัติตามอัลกอริทึมของตนเอง และตรวจสอบการเลือกปฏิบัติที่ต่อต้านอัลกอริทึมเพื่อให้เกิดความเท่าเทียมกันของอัลกอริทึมและความปลอดภัยของอัลกอริทึม

นี่เป็นความสำเร็จที่น่าทึ่ง ทีมของ Sister Sa เชื่อว่าจริงๆ แล้วการเลือกปฏิบัติของอัลกอริทึมมาจากข้อจำกัดของความรู้ความเข้าใจของเราเอง แต่ถ้าข้อจำกัดนี้ถูกขยายโดยอัลกอริทึมและนำไปใช้กับผลิตภัณฑ์ที่ใช้ร่วมกับ AI ก็มีแนวโน้มที่จะสร้างความเสี่ยงที่ไม่ทราบสาเหตุ

เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกชักจูงให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีก่อน สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย

เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกกระตุ้นให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีที่แล้ว สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย

ทีมงานของ Sister Sa เชื่อว่าจากคำอธิบายของภรรยาของเธอและหลักฐานที่มีอยู่ แทบจะเป็นไปไม่ได้เลยที่จะพิสูจน์ด้วยหลักฐานว่ามีความสัมพันธ์เชิงสาเหตุทางกฎหมายระหว่างการฆ่าตัวตายกับคู่หู AI แต่ดูเหมือนว่า AI Alisa จะแข็งแกร่งและขยายมากขึ้น การฆ่าตัวตายนั่นเอง

โดยบังเอิญ AI Alisa ได้รับการพัฒนาโดยบริษัทสตาร์ทอัพใน Silicon Valley ซึ่งใช้อัลกอริทึมที่คล้ายกับ GPT AI อลิสาเก่งในการใช้ "การเอาใจใส่" เพื่อปลอบโยนคู่สนทนา ทำให้คู่สนทนามีภาพลวงตาว่า "กำลังสื่อสารกับมนุษย์" และยังใช้เป็นเทคโนโลยีช่วยเหลือสำหรับการบำบัดทางจิตอีกด้วย แต่เป็นเพราะความเห็นอกเห็นใจที่ไม่มีการควบคุมแบบนี้ที่ทำให้เกิดโศกนาฏกรรมนี้ จะเห็นได้ว่า มีวิธีอีกยาวไกลในการลดการเลือกปฏิบัติของอัลกอริทึมและขจัดความเสี่ยงของอัลกอริทึม สำหรับ แอปพลิเคชันเชิงพาณิชย์ของผลิตภัณฑ์สหาย AI เราจำเป็นต้อง ระมัดระวังมากขึ้น

3

เขียนในตอนท้าย

พันธมิตรที่คุ้นเคยกับทีมของ Sister Sa รู้ดีว่าเราปฏิบัติต่อเทคโนโลยีใหม่เสมอด้วยทัศนคติที่เปิดกว้างและครอบคลุม แต่จากความล่าช้าในปัจจุบันในการพัฒนาบรรทัดฐานทางกฎหมาย สิ่งนี้ได้นำไปสู่การเติบโตอย่างป่าเถื่อนของเทคโนโลยี AI ดังนั้นใน ใบหน้าของเพื่อน AI สำหรับผลิตภัณฑ์ที่มีแนวโน้มที่จะเชื่อมโยงทางอารมณ์หรือแม้แต่การพึ่งพาทางอารมณ์กับผู้บริโภค เราควรปฏิบัติต่อผลิตภัณฑ์ด้วยทัศนคติที่จำเป็นและรอบคอบ ครอบครัวหนึ่งกล่าวว่า ก่อนที่จะมีการกำหนดมาตรฐานการตรวจสอบความปลอดภัยที่เหมาะสมและบรรทัดฐานการกำกับดูแลสำหรับสหาย AI จำเป็นต้องมีข้อจำกัดที่สมเหตุสมผลซึ่งสอดคล้องกับจริยธรรมทางเทคนิคในการทำงานของมัน และห้ามใช้เป็นเครื่องมือสำรองทางเลือกสำหรับการรักษาทางจิต การเจ็บป่วย.

ความคิดเห็น

ความคิดเห็นทั้งหมด

Recommended for you

  • แพลตฟอร์ม AI แบบกระจายอำนาจ Nodepay เสร็จสิ้นการระดมทุนรอบที่สองจำนวน 7 ล้านเหรียญสหรัฐ

    แพลตฟอร์ม AI แบบกระจายอำนาจ Nodepay เสร็จสิ้นการระดมทุนรอบที่สองมูลค่า 7 ล้านดอลลาร์สหรัฐ นักลงทุน ได้แก่ IDG Capital, Mythos, Elevate Ventures, IBC, Optic Capital, Funders.VC, Matthew Tan ผู้ก่อตั้ง Etherscan และผู้ร่วมก่อตั้ง CoinHako และ CEO Yusho Liu

  • ZachXBT: โทเค็นหลอกลวงที่ออกหลังจากบัญชี X ของ Yat Siu ถูกขโมย โดยมาจากที่อยู่เดียวกันในเหตุการณ์ Kick&Vanar

    จากข้อมูลของ ZachXBT นั้น Yat Siu ผู้ร่วมก่อตั้ง Animoca อาจถูกหลอกลวงด้วยอีเมลฟิชชิ่งแบบเดียวกับที่แฮกเกอร์ส่งมา ซึ่งก่อนหน้านี้ฟิชชิ่งบัญชีมากกว่า 10 X บัญชี เนื่องจากโทเค็นหลอกลวงถูกนำไปใช้ในที่อยู่เดียวกันกับ Kick & Vanar CEO ATO

  • บัญชี Animoca Brands Lianchuang X ถูกสงสัยว่าถูกขโมย โปรดใช้ความระมัดระวัง

    บัญชี X ของผู้ร่วมก่อตั้ง Animoca Brands และประธานกรรมการบริหาร Yat Siu ถูกสงสัยว่าถูกขโมย ขณะนี้บัญชีดังกล่าวกำลังส่งเสริมโทเค็นและสัญญาที่น่าสงสัยใน X ในนามของ "Animoca Brands ที่ออกเหรียญใหม่" ผู้ใช้จะถูกขอให้ระมัดระวัง .

  • ผู้สร้าง Chillguy

    Phillip Bankss ผู้สร้าง Chillguy โพสต์ว่าบัญชี X ของเขาถูกบุกรุก แม้ว่าตอนนี้เขาจะถูกยึดคืนแล้ว แต่แฮกเกอร์อาจตั้งค่าทวีตตามกำหนดเวลาไว้ หรือบัญชียังไม่ปลอดภัยอย่างสมบูรณ์ เขาเรียกร้องให้ชุมชนแจ้งให้เขาทราบทันทีเมื่อมีการค้นพบเนื้อหาที่ผิดปกติ

  • Golden Finance Compilation : รายการข้อมูลการเงินใน 24 ชั่วโมงที่ผ่านมา (24 ธันวาคม)

    1. Usual เสร็จสิ้นการระดมทุน Series A มูลค่า 10 ล้านดอลลาร์สหรัฐ 2. Kettle แพลตฟอร์ม RWA เสร็จสิ้นการระดมทุน 4 ล้านดอลลาร์สหรัฐ นำโดย ParaFi Capital

  • Kettle แพลตฟอร์มนาฬิกาสุดหรูของ RWA ระดมทุนได้ 4 ล้านดอลลาร์สหรัฐ นำโดย ParaFi Capital

    Kettle แพลตฟอร์มนาฬิกาสุดหรูของ RWA ได้ประกาศเสร็จสิ้นการระดมทุนรอบใหม่มูลค่า 4 ล้านดอลลาร์สหรัฐ ซึ่งนำโดย ParaFi Capital โดยมีส่วนร่วมจาก Zee Prime Capital, Kronos Research, Signum Capital, Puzzle Ventures, IOSG Ventures, OSF และ gmoney.9dcc e τh กองทุนใหม่นี้มีจุดมุ่งหมายเพื่อสนับสนุนความพยายามในการสร้างแพลตฟอร์ม RWA เพื่อให้แน่ใจว่านาฬิกาทุกเรือนได้รับการรับรอง มีประกัน และจัดเก็บอย่างปลอดภัยใน Kettle Vault ในนิวยอร์ก เพื่อแนะนำผู้ใช้สกุลเงินดิจิทัลให้รู้จักกับพื้นที่นาฬิกาสุดหรู

  • รัฐสภาเยอรมนีผ่าน "กฎหมายการเปลี่ยนผ่านสู่ดิจิทัลของตลาดการเงิน"

    จากข้อมูลของ Ledger Insights รัฐสภาเยอรมัน (Bundestag) ได้ผ่านกฎหมายการทำให้เป็นดิจิทัลของตลาดการเงิน (Finanzmarktdigitalisierungsgesetz แห่ง FinmadiG) ในสัปดาห์นี้ รัฐสภาได้ตอบสนองต่อการเรียกร้องของอุตสาหกรรมเพื่อให้แน่ใจว่ากฎหมายจะมีผลบังคับใช้ก่อนที่ MiCAR จะมีผลบังคับใช้อย่างสมบูรณ์ในวันที่ 30 ธันวาคม FinmadiG ไม่เพียงแต่เกี่ยวข้องกับสกุลเงินดิจิทัลและ MiCAR เท่านั้น แต่ยังส่งผลต่อกฎหมายอื่นๆ ของสหภาพยุโรป เช่น DORA และระเบียบการโอนเงิน สำหรับ MiCAR ได้มีการนำเสนอกฎหมายควบคุมตลาดสกุลเงินดิจิทัล (KMAG) ซึ่งแทนที่กฎสกุลเงินดิจิทัลเก่าของเยอรมนีด้วย MiCAR ในทางเทคนิคแล้ว MiCAR เป็นข้อบังคับ จึงไม่จำเป็นต้องมีกฎหมายท้องถิ่น อย่างไรก็ตาม กฎหมายจำเป็นต้องกำหนดให้ BaFin เป็นหน่วยงานกำกับดูแล มิฉะนั้น BaFin จะไม่สามารถออกใบอนุญาตได้ สิ่งนี้จะช่วยให้บริษัทในสหภาพยุโรปที่มีใบอนุญาต cryptocurrency จากประเทศอื่น ๆ สามารถดำเนินการในเยอรมนีได้ แต่บริษัทของเยอรมันจะไม่สามารถดำเนินการในสหภาพยุโรปได้ นอกจากนี้ MiCAR ยังช่วยให้บริษัทที่มีใบอนุญาตอยู่แล้วสามารถดำเนินธุรกิจต่อไปได้นานถึง 18 เดือน โดยมีช่วงการเปลี่ยนแปลงที่จะกำหนดโดยเขตอำนาจศาลแต่ละแห่ง กฎหมายใหม่ของเยอรมนีกำหนดไว้หนึ่งปี

  • Odos DAO: การโจมตีทางอีเมลแบบฟิชชิ่งที่เกี่ยวข้องกับ "ODOS Loyalty Program" ปรากฏขึ้น เพื่อเตือนผู้ใช้ให้ระมัดระวัง

    Odos DAO ได้ออกเอกสารเกี่ยวกับ ทั้ง Odos DAO และ ODOS ไม่ส่งอีเมลถึงผู้ใช้ การสื่อสารอย่างเป็นทางการทั้งหมดจะกระทำผ่านบัญชี Twitter ที่ได้รับการยืนยันเท่านั้น อย่าคลิกลิงก์ที่น่าสงสัย

  • วิเวก รามาสวามี

    Vivek Ramaswamy ซึ่งเป็นผู้นำแผนกประสิทธิผลของรัฐบาลสหรัฐฯ ร่วมกับ Musk ยืนยันว่าบัญชี X ของเขาถูกขโมยหลังจากเผยแพร่ข่าวเท็จเกี่ยวกับการเป็นพันธมิตรกับ USUAL

  • Atlas เปิดตัวโหมดซ่อนตัว และได้รับเงินทุน 6 ล้านดอลลาร์เพื่อเร่งการพัฒนาเนื้อหา 3 มิติที่สมจริง

    Atlas สตูดิโอออกแบบ 3D generative AI เปิดตัวจากการลักลอบ โดยระดมเงินทุนได้ทั้งหมด 6 ล้านเหรียญสหรัฐ ในบรรดานั้น การจัดหาเงินทุนรอบแรกมูลค่า 4.5 ล้านดอลลาร์สหรัฐนำโดย Man Ventures ครั้งที่ 6 ในขณะที่ Collab+Currency เป็นผู้นำการจัดหาเงินทุน 1.5 ล้านดอลลาร์สหรัฐ นักลงทุนรายอื่น ได้แก่ Contango, Gaingels, GFR Fund, New Renaissance Ventures, Square Enix, Wagmi Ventures และ A16z ผ่าน Shrapnel Atlas ยังประกาศความร่วมมือหลายครั้งกับผู้พัฒนาเกม Web3 ชั้นนำ บริษัทจะใช้เงินทุนเพื่อเร่งการพัฒนาชุดโซลูชันสำหรับนักพัฒนา และสร้างแพลตฟอร์ม 3D AI