Cointime

Download App
iOS & Android

"เพื่อน AI" ที่นอนหนุนหมอนอยู่ในช่องว่างระหว่างกฎหมายและศีลธรรม

Validated Individual Expert

พันธมิตรที่คุ้นเคยกับทีมพี่สาคงจำได้ว่าครั้งหนึ่งเราเคย “ปลูกหญ้า” ให้ทุกคนในช่วงที่แนวคิด metaverse โด่งดังที่สุด ละครไซไฟระดับเทพเรื่อง “กระจกเงาดำ” ตอนของเรื่องสั้นชื่อว่า Be Right Back (กลับมาเร็ว ๆ นี้) ได้สร้างความประทับใจอย่างลึกซึ้งให้กับผู้เขียนจนถึงตอนนี้

Be Right Back บอกเล่าเรื่องราวดังกล่าว: นางเอก Martha ผู้ทนไม่ได้กับการตายของสามีของเธอในอุบัติเหตุทางรถยนต์ ได้ป้อนข้อมูลโซเชียลมีเดียทั้งหมดและข้อมูลที่เหลืออื่นๆ ของสามีผู้ล่วงลับลงในแบบจำลอง AI เพื่อสร้างสามี AI ในตอนแรกการสนทนาระหว่างสามีของ AI กับเขานั้นไม่ราบรื่นและสามารถใช้เป็น บริษัท ที่ดีกว่าไม่มีอะไรเลยเพื่อบรรเทาความเจ็บปวดจากการคิดถึงเขา อย่างไรก็ตาม ขณะที่ Martha สนทนากับ AI ต่อไป ​​สามี ในที่สุดโมเดล AI ก็รวบรวมได้มากพอ โดยใช้ข้อมูล อัลกอริทึมใช้สร้างหุ่นยนต์ที่น่ากลัวด้วยเสียงและรอยยิ้มที่เกือบจะเหมือนกับสามีของ Martha ทำให้ Martha เบลอขอบเขตระหว่างความเป็นจริงและจินตนาการ .

ตั้งแต่โมเดล AI ของแทร็กต่างๆ ออกมาเมื่อปีที่แล้ว ดูเหมือนว่า Be Right Back ได้เริ่มเร่งการเปลี่ยนแปลงให้เป็นจริง คู่หู AI ได้กลายเป็นแทร็กมหาสมุทรสีฟ้าที่สะดุดตาอย่างแท้จริง และยังกลายเป็น เส้นทางที่มีแนวโน้มที่จะทำลายศีลธรรมดั้งเดิมอย่างมากและเทคโนโลยีใหม่สำหรับกฎหมายที่มีอยู่ วันนี้ ทีมงานของ Sister Sa ใช้โอกาสนี้พูดคุยกับคุณเกี่ยวกับมาตรการทางกฎหมายที่มีอยู่ในประเทศของฉันสำหรับสหาย AI และกฎระเบียบในอนาคตควรจัดการกับเทคโนโลยีใหม่ที่ก้าวล้ำนี้อย่างไร

เนื้อหาที่สร้างโดย AI เริ่มเป็นรูปเป็นร่างแล้ว สหายของ AI จะตามหลังไปไกลกว่านี้ได้ไหม?

1

สหาย AI กำลังเติบโตและพร้อมสำหรับการใช้งานเชิงพาณิชย์ในวงกว้าง

หากย้อนดูประวัติศาสตร์ ประวัติของมนุษย์ที่สนทนากับ AI หรือสนทนากับคอมพิวเตอร์นั้นยาวนานพอๆ กับประวัติศาสตร์ของเทคโนโลยีคอมพิวเตอร์ ในยุคแรกๆ ของการพัฒนาเทคโนโลยีคอมพิวเตอร์ หลายคนเคยมองว่าคอมพิวเตอร์เป็น "โพรงต้นไม้ที่ปลอดภัยอย่างยิ่ง" " แทนที่จะแบ่งปันประสบการณ์ชีวิตหรือแม้แต่ความเป็นส่วนตัวพิเศษ ในแง่นี้ คอมพิวเตอร์เป็นสื่อเก็บข้อมูล พฤติกรรมของมนุษย์ที่จะพูดคุยกับมันเป็นหลักเหมือนกับการซื้อสมุดบันทึกขนาดเล็กและเขียนไดอารี่ . แม้ว่าในตอนนั้นจะยังไม่มีเทคโนโลยี AI แต่การสนทนาส่วนใหญ่ก็ไม่ได้รับการตอบสนองที่มีความหมายแต่มนุษย์ก็ยังสนุกกับมันได้บนเส้นทางของการ "คุยกับ Machine" ไม่นานมานี้ บริษัทสื่อสังคมออนไลน์ขนาดใหญ่แห่งหนึ่งได้ออกมาหักล้างข่าวลือต่อสาธารณะและระบุว่า "การถ่ายโอนไฟล์ หากคุณอ่านข่าวว่าไม่มีคนจริงๆ ในหุ่นยนต์ คุณจะเห็นว่ามีกี่คนที่มักจะพูดคำที่บีบคั้นหัวใจกับหุ่นยนต์

แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข

แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข

เพียงเพราะภาระของชีวิตกลืนกินความกระตือรือร้นในการใช้ชีวิตของเรามากเกินไป และความเหงามักติดตามผู้รอดชีวิตในเมืองเหมือนเงา เพื่อนร่วมทางของ AI จึงเริ่มกลายเป็นเส้นทางทองที่มีคุณค่าในทางปฏิบัติมากที่สุดและหัวข้อการจราจรในด้าน AI ขนาดใหญ่ โมเดล

เมื่อเร็ว ๆ นี้ สมาชิกในทีมของ Sister Sa เริ่มทำการประเมินการทดลองใช้กับผลิตภัณฑ์ในตลาดที่ขาย AI Companion เราพบว่าจากมุมมองของแพลตฟอร์มผลิตภัณฑ์ ผลิตภัณฑ์ AI Companion ปัจจุบันในประเทศของฉันสามารถแบ่งออกเป็นสามประเภทอย่างคร่าวๆ: (1) สหาย AI เฉพาะประเภทแอป ; (2) สหาย AI อนุพันธ์ในตัว (3) แอปเพล็ตแพลตฟอร์มโซเชียล สหาย AI ของ WeChat สำหรับองค์กร จากมุมมองของต้นทุนการผลิตและการโต้ตอบ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI สามารถแบ่งออกเป็นสองประเภทอย่างคร่าว ๆ ได้แก่ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่จับต้องได้ และผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่ไม่ใช่กายภาพ

เพื่อตอบสนองความต้องการทางจิตวิทยาของผู้บริโภคจำนวนมาก ผู้ผลิตบางรายได้จัดการรหัสผ่านการรับส่งข้อมูลอย่างรุนแรง และสร้างชุดสหายเสมือน AI ที่มีป้ายจราจร "การออกแบบโดยมนุษย์"

ข้อความข้างต้นมาจากผลิตภัณฑ์เสริม AI บนอินเทอร์เน็ต และใช้สำหรับคำแนะนำในการค้นคว้าและการศึกษาเท่านั้น

แน่นอนว่าภาพยนตร์แนวไซไฟที่สะเทือนอารมณ์และจริยธรรมเรื่อง "Her" บอกเราจากมุมมองของภาพยนตร์ว่าความสัมพันธ์รักเสมือนกับตัวละครบางๆ และเครื่องปรับอากาศส่วนกลางจะต้องพ่ายแพ้ต่อความปรารถนาครอบครองดั้งเดิมของมนุษย์ เมื่อตัวเอกธีโอดอร์เริ่มถามตัวเองว่า: "ความรักนี้เขียนขึ้นโดยอัลกอริทึมหรือไม่" ความรัก "ตกต่ำ" เป็นเพียงชั่วครู่เท่านั้น

เป็นผลให้สหาย AI ที่มีทั้งประเภทแอพและผลิตภัณฑ์ทางกายภาพเกิดขึ้นและได้รับความนิยมเช่น "ภรรยาในขวด" ที่ผลิตโดย บริษัท Gatebox ของญี่ปุ่น - สหายเสมือนจริงโฮโลแกรม "Meeting Wife Light" (อันที่จริงสหาย AI นี้ ผลิตภัณฑ์มีมา 16 ปีแล้ว ปรากฏ แต่ก็ยังเป็นเกณฑ์มาตรฐานคุณภาพสูงในหมู่สหาย AI) และ "สีเหลืองอำพัน" ที่ผลิตโดยบริษัทในเซินเจิ้น ประเทศของฉัน

"เมียในขวด" - เมียทุกคน

ด้วยการประยุกต์ใช้โมเดลขนาดใหญ่ของ AI ในเชิงพาณิชย์อย่างแพร่หลาย ทีมของ Sister Sa นึกไม่ออกว่าสถานการณ์ที่ไม่เคยเกิดขึ้นมาก่อนจะเกิดอะไรขึ้นหาก GPT เชื่อมต่อกับภรรยาในขวด และจะนำไปสู่การเปลี่ยนแปลงทางสังคมอย่างลึกซึ้งเพียงใด

2

ในปัจจุบัน กฎหมายและข้อบังคับที่ควบคุมสหาย AI ในประเทศของฉันมีอะไรบ้าง

ก่อนอื่น จำเป็นต้องอธิบายว่าประเทศของฉันไม่ได้ออกเอกสารเชิงบรรทัดฐานใด ๆ ที่ควบคุมสหายของ AI โดยเฉพาะ ดังนั้น เราจึงสามารถค้นหาบรรทัดฐานทางกฎหมายที่มีอยู่ได้จากความคล้ายคลึงกันระหว่างสหายของ AI และผลิตภัณฑ์ AI อื่น ๆ เพื่อให้เป็นพื้นฐานสำหรับการพัฒนา สหาย AI ผู้ปฏิบัติงานชี้ให้เห็นถึงลำดับความสำคัญของการปฏิบัติตามข้อกำหนดที่ต้องให้ความสนใจ

ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"

(1) การป้องกันข้อมูลเท็จ

ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"

(1) การป้องกันข้อมูลเท็จ

ปัญหาใหญ่ประการหนึ่งของโมเดลขนาดใหญ่ของ AI คืออัลกอริทึมทำให้ AI มีความสามารถในการ "โกหก" และประดิษฐ์ข้อมูลเท็จ ดังนั้นการป้องกันข้อมูลเท็จของ AI จึงกลายเป็นประเด็นสำคัญในการกำกับดูแล AI ในปัจจุบัน

เมื่อวันที่ 25 เมษายน พ.ศ. 2566 หน่วยรักษาความปลอดภัยทางอินเทอร์เน็ตของสำนักงานความมั่นคงสาธารณะผิงเหลียง สาขาคงตง ได้ถอดรหัสกรณีของหง มู่โหมว โดยใช้ ChatGPT เพื่อเผยแพร่ข่าวเท็จ Hong Moumou ใช้เครื่องมือรวบรวมข้อมูลของบุคคลที่สามเพื่อค้นหาเครือข่ายทั้งหมดสำหรับเหตุการณ์ข่าวต่างๆ ที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา และใช้ฟังก์ชันข้อความอันทรงพลังของ ChatGPT เพื่อแก้ไขและรวมเข้าด้วยกันอีกครั้ง และโพสต์บนแพลตฟอร์มสื่อด้วยตนเองเพื่อ ดึงดูดการเข้าชมและรับผลกำไร ปัจจุบัน ฮงถูกหน่วยงานความมั่นคงสาธารณะใช้มาตรการบีบบังคับทางอาญา เนื่องจากสงสัยว่าก่ออาชญากรรมในการทะเลาะวิวาทและยั่วยุให้เกิดความเดือดร้อน เหตุการณ์ที่คล้ายกันยังเกิดขึ้นในต่างประเทศ เมื่อวันที่ 22 พฤษภาคมตามเวลาท้องถิ่นในสหรัฐอเมริกา แผนที่การระเบิดของเพนตากอนที่สังเคราะห์ด้วย AI แพร่สะพัดในสื่อ แม้ว่ากระทรวงกลาโหมสหรัฐฯ จะปฏิเสธข่าวลือดังกล่าว แต่ข้อมูลเท็จที่เกี่ยวข้องยังคงแพร่กระจาย .

เนื่องจากคู่หู AI ต้องการให้ผู้ใช้สร้างความสัมพันธ์แบบสัมพัทธ์ที่ค่อนข้างมั่นคงและใกล้ชิดกับ AI แม้ว่าผู้ใช้จะถูกหลอกด้วยข้อมูลที่เป็นเท็จ อันตรายต่อสังคมของมันจึงค่อนข้างน้อยกว่าโมเดล AI สาธารณะ อย่างไรก็ตาม ทีมงานของ Sister Sa เตือนว่าหากปิดเป็นเวลานานและมีปฏิสัมพันธ์กับ AI ทางเดียว พระองค์ Meng ที่ได้รับข้อมูลเท็จจากพันธมิตร AI มีแนวโน้มที่จะทำให้ผู้ใช้ดำเนินการอื่น ๆ ที่เป็นอันตรายต่อตนเองและผู้อื่น ในโลกแห่งความจริง

(2) การปฏิบัติตามข้อมูล

สำหรับ AI ข้อมูลคือชีวิต หากไม่มี Big Data ขนาดมหึมาเป็นพื้นฐานสำหรับการฝึกโมเดล โมเดล AI ขนาดใหญ่ที่ยอดเยี่ยมจะไม่เกิดขึ้น ดังนั้น การปฏิบัติตามข้อมูลจึงมีความสำคัญอย่างยิ่งต่ออุตสาหกรรม AIGC หลังจากที่ "กฎหมายคุ้มครองข้อมูลส่วนบุคคล" ของจีนมีผลบังคับใช้และนำไปใช้ อุตสาหกรรม AIGC เองก็เผชิญกับข้อกำหนดการปฏิบัติตามข้อมูลที่เข้มงวด และมีความเสี่ยงทางกฎหมายที่ซ่อนอยู่ในกระบวนการทั้งหมดตั้งแต่การรวบรวม การประมวลผล ไปจนถึงการส่งข้อมูล

ในระบบการปฏิบัติตามข้อมูลของผลิตภัณฑ์ AI Companion สิ่งที่สำคัญที่สุดที่ต้องใส่ใจคือการปกป้องข้อมูลส่วนบุคคลของผู้ใช้ AI Companion มีแนวโน้มที่จะรวบรวมข้อมูลที่ละเอียดอ่อนจำนวนมากในระหว่างการโต้ตอบระหว่างผู้ใช้และ พวกเขา. ผลิตภัณฑ์ที่ใช้ร่วมกับ AI จะต้องดำเนินการภายใต้หลักการของการปกป้องข้อมูล การส่งผ่าน และการประมวลผลที่ดี มิฉะนั้น อาจเกิดการฟ้องร้องทางแพ่ง การลงโทษทางปกครอง หรือแม้แต่ความเสี่ยงทางอาญาได้ง่าย

(3) ปฏิบัติตามข้อผูกพันในการประเมินความปลอดภัยและการยื่นเอกสาร

ทั้ง "ระเบียบการสังเคราะห์เชิงลึก" และ "มาตรการการจัดการของ AIGC" นำเสนอข้อกำหนดสำหรับผู้ให้บริการของ AIGC ในการประเมินความปลอดภัยและการจัดเก็บบันทึกจากมุมมองที่แตกต่างกัน

ในปัจจุบัน บริการที่ต้องดำเนินการตามข้อผูกพันในการประเมินความปลอดภัยส่วนใหญ่จะมุ่งเน้นไปที่การใช้เครื่องมือ AI เพื่อ (1) สร้างหรือแก้ไขข้อมูลไบโอเมตริกซ์ เช่น ใบหน้าและเสียง (2) สร้างหรือแก้ไขข้อมูลที่อาจเกี่ยวข้องกับความมั่นคงของชาติ ผลประโยชน์ของชาติ ข้อมูลที่ไม่ใช่ไบโอเมตริก เช่น วัตถุพิเศษและฉากที่เป็นผลประโยชน์ทางสังคมและสาธารณะ ในแง่ของการปฏิบัติตามข้อผูกพันในการยื่นและจดทะเบียน ส่วนใหญ่เน้นที่ผู้ให้บริการการสังเคราะห์เชิงลึกที่มีคุณสมบัติของความคิดเห็นสาธารณะหรือความสามารถในการขับเคลื่อนทางสังคม

สำหรับผู้ร่วมงานด้าน AI ผู้ปฏิบัติงานในอุตสาหกรรมอาจเผชิญกับภาระหน้าที่ในการประเมินความปลอดภัยที่หนักขึ้น และอาจต้องเผชิญกับการตรวจสอบจริยธรรมทางเทคนิคที่เข้มงวด ในฐานะผลิตภัณฑ์ที่ผสานรวมฟังก์ชันต่างๆ ของ AIGC และมีผลกระทบอย่างมากต่อจิตวิทยาของผู้บริโภค ความปลอดภัยของผลิตภัณฑ์จึงต้องได้รับการตรวจสอบอย่างเข้มงวดมากขึ้น ดังนั้น ทีมงาน Sajie คาดการณ์ว่าในอนาคต อาจเป็นไปได้ที่จะแนะนำชุดมาตรฐานการทบทวนเป้าหมายสำหรับสหาย AI เพื่อชดเชยข้อบกพร่องของมาตรฐานที่มีอยู่

(4) ปฏิบัติตามข้อผูกพันของอัลกอริทึมสิทธิเท่าเทียมกัน การต่อต้านการเลือกปฏิบัติ และการขจัดอันตรายที่อาจเกิดขึ้น

ใน "มาตรการการจัดการของ AIGC" ผู้ให้บริการของ AIGC จะต้องรายงานให้ผู้อ่านทราบอย่างชัดเจนเกี่ยวกับการปฏิบัติตามอัลกอริทึมของตนเอง และตรวจสอบการเลือกปฏิบัติที่ต่อต้านอัลกอริทึมเพื่อให้เกิดความเท่าเทียมกันของอัลกอริทึมและความปลอดภัยของอัลกอริทึม

นี่เป็นความสำเร็จที่น่าทึ่ง ทีมของ Sister Sa เชื่อว่าจริงๆ แล้วการเลือกปฏิบัติของอัลกอริทึมมาจากข้อจำกัดของความรู้ความเข้าใจของเราเอง แต่ถ้าข้อจำกัดนี้ถูกขยายโดยอัลกอริทึมและนำไปใช้กับผลิตภัณฑ์ที่ใช้ร่วมกับ AI ก็มีแนวโน้มที่จะสร้างความเสี่ยงที่ไม่ทราบสาเหตุ

เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกชักจูงให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีก่อน สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย

เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกกระตุ้นให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีที่แล้ว สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย

ทีมงานของ Sister Sa เชื่อว่าจากคำอธิบายของภรรยาของเธอและหลักฐานที่มีอยู่ แทบจะเป็นไปไม่ได้เลยที่จะพิสูจน์ด้วยหลักฐานว่ามีความสัมพันธ์เชิงสาเหตุทางกฎหมายระหว่างการฆ่าตัวตายกับคู่หู AI แต่ดูเหมือนว่า AI Alisa จะแข็งแกร่งและขยายมากขึ้น การฆ่าตัวตายนั่นเอง

โดยบังเอิญ AI Alisa ได้รับการพัฒนาโดยบริษัทสตาร์ทอัพใน Silicon Valley ซึ่งใช้อัลกอริทึมที่คล้ายกับ GPT AI อลิสาเก่งในการใช้ "การเอาใจใส่" เพื่อปลอบโยนคู่สนทนา ทำให้คู่สนทนามีภาพลวงตาว่า "กำลังสื่อสารกับมนุษย์" และยังใช้เป็นเทคโนโลยีช่วยเหลือสำหรับการบำบัดทางจิตอีกด้วย แต่เป็นเพราะความเห็นอกเห็นใจที่ไม่มีการควบคุมแบบนี้ที่ทำให้เกิดโศกนาฏกรรมนี้ จะเห็นได้ว่า มีวิธีอีกยาวไกลในการลดการเลือกปฏิบัติของอัลกอริทึมและขจัดความเสี่ยงของอัลกอริทึม สำหรับ แอปพลิเคชันเชิงพาณิชย์ของผลิตภัณฑ์สหาย AI เราจำเป็นต้อง ระมัดระวังมากขึ้น

3

เขียนในตอนท้าย

พันธมิตรที่คุ้นเคยกับทีมของ Sister Sa รู้ดีว่าเราปฏิบัติต่อเทคโนโลยีใหม่เสมอด้วยทัศนคติที่เปิดกว้างและครอบคลุม แต่จากความล่าช้าในปัจจุบันในการพัฒนาบรรทัดฐานทางกฎหมาย สิ่งนี้ได้นำไปสู่การเติบโตอย่างป่าเถื่อนของเทคโนโลยี AI ดังนั้นใน ใบหน้าของเพื่อน AI สำหรับผลิตภัณฑ์ที่มีแนวโน้มที่จะเชื่อมโยงทางอารมณ์หรือแม้แต่การพึ่งพาทางอารมณ์กับผู้บริโภค เราควรปฏิบัติต่อผลิตภัณฑ์ด้วยทัศนคติที่จำเป็นและรอบคอบ ครอบครัวหนึ่งกล่าวว่า ก่อนที่จะมีการกำหนดมาตรฐานการตรวจสอบความปลอดภัยที่เหมาะสมและบรรทัดฐานการกำกับดูแลสำหรับสหาย AI จำเป็นต้องมีข้อจำกัดที่สมเหตุสมผลซึ่งสอดคล้องกับจริยธรรมทางเทคนิคในการทำงานของมัน และห้ามใช้เป็นเครื่องมือสำรองทางเลือกสำหรับการรักษาทางจิต การเจ็บป่วย.

ความคิดเห็น

ความคิดเห็นทั้งหมด

Recommended for you

  • หัวหน้าฝ่ายกลยุทธ์สินทรัพย์ดิจิทัลที่ Fundstrat: กิมจิพรีเมียมในปัจจุบันอยู่ที่ประมาณ 0% ซึ่งอาจบ่งชี้ว่า BTC ยังมีช่องว่างที่จะเพิ่มขึ้น

    Sean หัวหน้าฝ่ายกลยุทธ์สินทรัพย์ดิจิทัลที่ Fundstra Farrell กล่าวในบันทึกของลูกค้าล่าสุดว่า "เพื่อนและครอบครัว" กำลังเริ่มถามเกี่ยวกับสกุลเงินดิจิทัลอีกครั้ง และจากตัวชี้วัดตลาดเชิงปริมาณ สถานการณ์ปัจจุบันดูเหมือนจะไม่เป็นฟองสบู่เหมือนการชุมนุมในเดือนมีนาคมหรือจุดสูงสุดของวัฏจักรในช่วงปลายปี 2021 เช่น ข้อมูลตัวบ่งชี้พรีเมียมกิมจิในตลาดเกาหลีในปัจจุบันอยู่ที่ประมาณ 0% บ่งชี้ว่าผู้ค้าชาวเกาหลีขาดความตื่นเต้นมากเกินไป โดยปกติหากตลาดถึงจุดสูงสุด กิมจิพรีเมียมจะพุ่งขึ้นมากกว่า 10% และจะเพิ่มขึ้น สัปดาห์ที่ผ่านมาไม่ควรถือเป็นการเก็งกำไรทางเพศอย่างแท้จริง Bitcoin อาจยังมีพื้นที่เพิ่มขึ้น

  • Solana Lianchuang กล่าวว่า Solana เร็วกว่า ZK เสมอ CEO ของ Matter Labs ปฏิเสธ

    Toly ผู้ร่วมก่อตั้ง Solana กล่าวในการตอบกลับชาวเน็ตที่ตอบกลับ: "ZK ดีกว่า Solana เสมอ เร็วกว่าเพราะได้รับการรักษาความปลอดภัยด้วยคณิตศาสตร์แทนที่จะเป็นเครื่องมือตรวจสอบความถูกต้อง ซึ่งหมายความว่าเครื่องมือตรวจสอบความถูกต้องหนึ่งหรือสองสามตัว (สำหรับความซ้ำซ้อน) ก็เพียงพอแล้ว และคุณไม่จำเป็นต้องรอฉันทามติจากโหนดหลายพันโหนด”

  • Mike Flood ผู้แทนสหรัฐฯ: รอคอยที่จะทำงานร่วมกับประธาน ก.ล.ต. คนต่อไปเพื่อเพิกถอนนโยบายต่อต้านการเข้ารหัสลับของธนาคาร SAB 121

    ผู้แทนไมค์ ฟลัด แห่งสภาผู้แทนราษฎรแห่งสหรัฐอเมริกากล่าวเมื่อเร็วๆ นี้ว่า "แม้จะมีการต่อต้านอย่างกว้างขวาง แต่ SAB 121 ยังคงดำเนินการอย่างมีประสิทธิผลในฐานะที่เป็นกฎเกณฑ์ แม้ว่าจะไม่เคยผ่านกระบวนการพระราชบัญญัติวิธีพิจารณาคดีปกครองตามปกติก็ตาม" Flood กล่าวว่า "ฉันหวังว่าจะได้ร่วมงานด้วย" เขาจะร่วมมือกับประธาน SEC คนต่อไปเพื่อยกเลิก SAB 121 ไม่ว่าประธาน Gary Gensler จะลาออกตามความคิดริเริ่มของเขาเองหรือประธานาธิบดี Trump จะปฏิบัติตามคำสัญญาของเขา (ที่จะไล่ Gensler ออก) ฝ่ายบริหารชุดใหม่ก็มีโอกาสที่ดีเยี่ยมในการเริ่มต้นยุคใหม่หลังจากนั้น เกนส์เลอร์ลาออกจากตำแหน่ง” กล่าวเสริม: “ไม่น่าแปลกใจเลยที่ Gensler คัดค้านกรอบการกำกับดูแลสินทรัพย์ดิจิทัลที่ผ่านสภาเมื่อต้นปีนี้ พรรคเดโมแครต 71 คนเข้าร่วมสภาผู้แทนราษฎรในการผ่านกรอบสามัญสำนึกนี้ แม้ว่าวุฒิสภาจะปฏิเสธก็ตาม ยอมรับมัน แต่มันแสดงถึงช่วงเวลาแห่งการฝ่าวงล้อมสำหรับ crypto และอาจแจ้งการทำงานของฝ่ายบริหารของพรรครีพับลิกันแบบครบวงจรเมื่อสภาคองเกรสครั้งต่อไปจะเริ่มในเดือนมกราคมปีหน้า”

  • มหาเศรษฐีชาวอินเดีย Adani ถูก SEC เรียกตัวเพื่ออธิบายจุดยืนในคดีติดสินบน

    มหาเศรษฐีชาวอินเดีย Gautam Adani และหลานชายของเขา Sagar Adani ถูกหมายเรียกโดยสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ของสหรัฐอเมริกา (SEC) เพื่ออธิบายข้อกล่าวหาที่ว่าพวกเขาจ่ายเงินสินบนมากกว่า 250 ล้านดอลลาร์เพื่อชนะสัญญาพลังงานแสงอาทิตย์ ตามรายงานของ Press Trust of India (PTI) ระบุว่า มีการส่งหมายเรียกไปยังบ้านพักของครอบครัวอาดานีในเมืองอาห์เมดาบัด เมืองทางตะวันตกของอินเดีย โดยกำหนดให้ต้องตอบกลับภายใน 21 วัน PTI อ้างคำบอกกล่าวที่ออกผ่านศาลแขวงตะวันออกของนิวยอร์กเมื่อวันที่ 21 พฤศจิกายน โดยระบุว่า หากครอบครัว Adani ไม่ตอบกลับตรงเวลา จะมีการตัดสินผิดนัดต่อพวกเขา

  • ก.ล.ต. สหรัฐ: มีการบังคับใช้กฎหมายทั้งหมด 583 คดีในปีงบประมาณ 2024 และได้รับการบรรเทาทางการเงินสูงสุดในประวัติศาสตร์ที่ 8.2 พันล้านดอลลาร์สหรัฐ

    ก.ล.ต. ของสหรัฐอเมริกาได้ประกาศเมื่อเร็ว ๆ นี้ว่าความพยายามในการบังคับใช้ในปีงบประมาณ 2024 พุ่งแตะระดับสูงสุดเป็นประวัติการณ์ โดยเน้นย้ำถึงความพยายามในการรักษาความสมบูรณ์ของตลาดและการคุ้มครองนักลงทุน หน่วยงานเปิดเผยว่า: "มีการฟ้องร้องการบังคับใช้ทั้งหมด 583 คดีในปีงบประมาณ 2024 ในขณะที่ได้รับการเยียวยาทางการเงิน 8.2 พันล้านดอลลาร์ ซึ่งเป็นจำนวนเงินสูงสุดในประวัติศาสตร์ของ SEC เมื่อเทียบกับปี 2023 ก.ล.ต. ได้เริ่มดำเนินการบังคับใช้เพิ่มขึ้น 14 คดี % Gary Gensler ประธาน ก.ล.ต. แสดงความขอบคุณต่อบทบาทของการบังคับใช้กฎหมาย: "การบังคับใช้กฎหมายเป็นกองกำลังตำรวจที่มุ่งมั่นปฏิบัติตามข้อเท็จจริงและกฎหมายที่จะนำผู้ทำผิดกฎหมายมารับผิดชอบในทุกที่ที่พวกเขาไป ดังที่ผลการดำเนินงานของปีนี้แสดงให้เห็น แผนกดังกล่าวช่วยส่งเสริมความสมบูรณ์ของ ตลาดทุนของเราให้ประโยชน์ทั้งนักลงทุนและผู้ออกหลักทรัพย์"

  • สภาผู้แทนราษฎรแห่งสหรัฐอเมริกา: เฮสเตอร์ เพียร์ซ กรรมาธิการ ก.ล.ต. อาจดำรงตำแหน่งรักษาการประธาน ก.ล.ต. คนใหม่

    French Hill สมาชิกสภาคองเกรสแห่งสหรัฐอเมริกาเปิดเผยในการประชุมสุดยอด Blockchain ในอเมริกาเหนือ (NABS) ว่า Hester Peirce กรรมาธิการ SEC ของพรรครีพับลิกัน "มีแนวโน้ม" ที่จะกลายเป็นรักษาการประธานคนใหม่ของสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ของสหรัฐอเมริกา (SEC) เขาชี้ให้เห็นว่าหลังจากที่ประธานคนปัจจุบัน Gary Gensler จะก้าวลงจากตำแหน่งในวันที่ 20 มกราคม 2025 พรรครีพับลิกันจะเข้าควบคุม SEC และคาดว่า Peirce จะเข้ารับตำแหน่งของเขา

  • ประธานเจ้าหน้าที่ฝ่ายกฎหมายของ Ripple ให้คำแนะนำแก่ SEC เกี่ยวกับผู้นำคนใหม่ในการปฏิรูปกฎการเข้ารหัสลับ

    Stuart Alderoty ประธานเจ้าหน้าที่ฝ่ายกฎหมายของ Ripple แบ่งปันคำแนะนำของเขากับผู้นำ SEC ที่เข้ามาโพสต์ใน X สัปดาห์นี้ Alderoty แสดงความมั่นใจในความสามารถของทีมการเปลี่ยนแปลงในการแก้ไขปัญหาด้านกฎระเบียบของสกุลเงินดิจิทัลอย่างมีประสิทธิภาพ และกระตุ้นให้ดำเนินการหลายประการ “ผมมั่นใจว่าทีมการเปลี่ยนแปลงจะทำการตัดสินใจที่ถูกต้องโดยพิจารณาถึงเงื่อนไขพื้นฐานสำหรับสกุลเงินดิจิทัล” เขาเขียนแนะนำให้ยุติการฟ้องร้องเกี่ยวกับสกุลเงินดิจิทัลทันทีที่ไม่เกี่ยวข้องกับการฉ้อโกง และโดยตรวจสอบให้แน่ใจว่า Mark Uyeda และ Hester Peirce กรรมาธิการ ก.ล.ต. ยังคงอยู่ในตำแหน่งต่อไป เพื่อส่งเสริมความร่วมมือ เขาเน้นย้ำถึงความจำเป็นในการทำงานร่วมกับสภาคองเกรสและหน่วยงานกำกับดูแลทางการเงินเพื่อพัฒนากฎการเข้ารหัสลับที่ชัดเจนและตรงประเด็น แทนที่จะยอมรับเขตอำนาจศาลของ ก.ล.ต. นอกจากนี้ เขาเรียกร้องให้ละทิ้งสุนทรพจน์ของ Hinman ปี 2018 และกรอบการวิเคราะห์สินทรัพย์ดิจิทัลปี 2019 เพิ่มความโปร่งใสในกระบวนการพระราชบัญญัติเสรีภาพด้านข้อมูลข่าวสาร (FOIA) และดำเนินการเพื่อฟื้นฟูความไว้วางใจและคำถามของสาธารณชนผ่านทางสำนักงานผู้ตรวจราชการเพื่อจัดการกับ ก.ล.ต. ที่ผ่านมา ปัญหาความรับผิดชอบ

  • CEO ของ Bitwise เตือนว่า ETHW ไม่เหมาะสำหรับนักลงทุนทุกคน และมีความเสี่ยงสูงและมีความผันผวนสูง

    Hunter Horsley ซีอีโอของ Bitwise โพสต์ใน An Investment Company ดังนั้นจึงไม่ได้รับการคุ้มครองโดยกฎหมายนี้ ETHW ไม่เหมาะสำหรับนักลงทุนทุกรายและมีความเสี่ยงสูงกว่าและมีความผันผวนสูง

  • Atlas เปิดตัวโหมดซ่อนตัว และได้รับเงินทุน 6 ล้านดอลลาร์เพื่อเร่งการพัฒนาเนื้อหา 3 มิติที่สมจริง

    Atlas สตูดิโอออกแบบ 3D generative AI เปิดตัวจากการลักลอบ โดยระดมเงินทุนได้ทั้งหมด 6 ล้านเหรียญสหรัฐ ในบรรดานั้น การจัดหาเงินทุนรอบแรกมูลค่า 4.5 ล้านดอลลาร์สหรัฐนำโดย Man Ventures ครั้งที่ 6 ในขณะที่ Collab+Currency เป็นผู้นำการจัดหาเงินทุน 1.5 ล้านดอลลาร์สหรัฐ นักลงทุนรายอื่น ได้แก่ Contango, Gaingels, GFR Fund, New Renaissance Ventures, Square Enix, Wagmi Ventures และ A16z ผ่าน Shrapnel Atlas ยังประกาศความร่วมมือหลายครั้งกับผู้พัฒนาเกม Web3 ชั้นนำ บริษัทจะใช้เงินทุนเพื่อเร่งการพัฒนาชุดโซลูชันสำหรับนักพัฒนา และสร้างแพลตฟอร์ม 3D AI