ในสังคมไซเบอร์ในอนาคต AI จะเป็นส่วนสำคัญของการมีปฏิสัมพันธ์กับมนุษย์ และการสร้างโครงสร้างพื้นฐานจะกลายเป็นความก้าวหน้าครั้งสำคัญสำหรับการพัฒนาโดยธรรมชาติ ความต้องการบริการประมวลผลและการอนุมานขนาดใหญ่ที่เกิดจากการทำงานของโมเดลก็กำลังเฟื่องฟูเช่นกัน ในฐานะโครงสร้างพื้นฐาน AI-as-a-Service ในด้าน Web3 เมื่อเร็วๆ นี้ Heurist โปรโตคอลการประมวลผลบนคลาวด์ AI แบบกระจายอำนาจ ได้ประกาศการระดมทุน 2 ล้านดอลลาร์สหรัฐจาก Amber Group, Contango Digital, Manifold Trading, Selini Capital และสถาบันอื่นๆ เสร็จสิ้นแล้ว พวกเขาจะมอบโครงสร้างพื้นฐานที่ยอดเยี่ยมประเภทใดให้กับผู้ใช้การเข้ารหัสและนักพัฒนา AI ในอนาคต
โครงสร้างพื้นฐาน
ด้วยการพัฒนาที่เฟื่องฟูของ generative AI ขนาดของตลาดทั่วโลกจะสูงถึง 356.1 พันล้านดอลลาร์สหรัฐภายในปี 2573 สิ่งต่อไปนี้คือความต้องการทรัพยากรการประมวลผลและบริการอนุมานที่เพิ่มขึ้นอย่างรวดเร็ว
ปัจจุบัน โมเดล AI จำนวนมากทำงานบนบริการคลาวด์แบบรวมศูนย์แบบดั้งเดิม และการเข้าถึงบริการเหล่านี้มีปัญหาดังต่อไปนี้:
- ความเสี่ยงจากการรวมศูนย์: ในบริการคลาวด์แบบรวมศูนย์ ข้อมูลและการคำนวณทั้งหมดจะรวมอยู่ในศูนย์ข้อมูลแห่งเดียว ซึ่งเสี่ยงต่อจุดล้มเหลวเพียงจุดเดียว นอกจากนี้ ข้อมูลทั้งหมดจะถูกจัดเก็บไว้ในที่เดียว ซึ่งเพิ่มความเสี่ยงต่อการรั่วไหลของข้อมูลและการใช้งานในทางที่ผิด
- ค่าใช้จ่ายสูง: การรันโมเดล AI ต้องใช้ทรัพยากรการประมวลผลจำนวนมาก โดยเฉพาะอย่างยิ่งเมื่อฝึกโมเดลขนาดใหญ่ ซึ่งใช้ทรัพยากร GPU และ CPU จำนวนมาก ต้นทุนของทรัพยากรเหล่านี้สูง โดยเฉพาะสำหรับธุรกิจที่ต้องรันและอัปเดตโมเดลอย่างต่อเนื่อง ส่งผลให้ต้นทุนการดำเนินงานสูงในระยะยาว
- การใช้ทรัพยากรต่ำ: ในบริการคลาวด์แบบรวมศูนย์แบบดั้งเดิม เนื่องจากโหลดที่ไม่สม่ำเสมอของการฝึกอบรมโมเดล AI และการอนุมาน จึงเกิดการขาดแคลนทรัพยากรในช่วงเวลาที่วุ่นวายและสิ้นเปลืองทรัพยากรในช่วงเวลาที่ไม่ได้ใช้งาน นอกจากนี้ เนื่องจากการสำรองทรัพยากรที่เป็นไปได้ระหว่างบริการต่างๆ ทรัพยากรจึงไม่สามารถนำมาใช้ได้อย่างเต็มที่ ซึ่งจะช่วยลดการใช้ทรัพยากรลงอีก
ในฐานะโครงสร้างพื้นฐานบริการ AI Heurist ช่วยให้เจ้าของ GPU สามารถจัดหาทรัพยากรการประมวลผลโดยไม่ได้รับอนุญาตผ่านสถาปัตยกรรมโปรโตคอล DePIN และ API แบบเปิดช่วยให้ผู้ใช้และนักพัฒนาสามารถเข้าถึงและเรียกใช้โมเดล AI ตามทรัพยากรการประมวลผลเหล่านี้
เลเยอร์คอมพิวเตอร์
เลเยอร์การประมวลผลประกอบด้วยโหนดการประมวลผล พ็อด และระบบการตรวจสอบ โหนดคอมพิวเตอร์ทำหน้าที่เป็นหน่วยพื้นฐานและอนุญาตให้ผู้ให้บริการคอมพิวเตอร์ (นักขุด) เข้าร่วมโดยไม่ได้รับอนุญาตและไม่มีระยะเวลาตายตัว
โหมดทั่วไปของ Pod
Pod เป็นหน่วยปริมาณงานอิสระที่ปรับใช้ได้โดยใช้ GPU ผู้ใช้สามารถระบุข้อกำหนดการประมวลผลบางอย่างเพื่อให้ตรงกับโหนดที่เกี่ยวข้องได้ โดยรองรับการปรับโหลดอัตโนมัติ และสามารถใช้ในการทำงานของโมเดล AI การปรับแต่งอย่างละเอียด และการสร้างหลักฐาน ZK ในเวลาเดียวกัน Heurist ใช้การตรวจสอบทางเศรษฐกิจแบบเข้ารหัสเพื่อให้มั่นใจถึงความสมบูรณ์และความน่าเชื่อถือของผลการคำนวณ
Pod เป็นหน่วยปริมาณงานอิสระที่ปรับใช้ได้โดยใช้ GPU ผู้ใช้สามารถระบุข้อกำหนดการประมวลผลบางอย่างเพื่อให้ตรงกับโหนดที่เกี่ยวข้องได้ โดยรองรับการปรับโหลดอัตโนมัติ และสามารถใช้ในการทำงานของโมเดล AI การปรับแต่งอย่างละเอียด และการสร้างหลักฐาน ZK ในเวลาเดียวกัน Heurist ใช้การตรวจสอบทางเศรษฐกิจแบบเข้ารหัสเพื่อให้มั่นใจถึงความสมบูรณ์และความน่าเชื่อถือของผลการคำนวณ
ชั้นการเรียบเรียง
Heurist สร้าง ZK Stack เพื่อมอบสภาพแวดล้อมที่มีปริมาณงานสูงและต้นทุนต่ำ ขณะเดียวกันก็มอบการแยกส่วนอธิปไตยที่ทำงานร่วมกันได้ให้กับผู้ใช้ เพื่อให้มั่นใจถึงเสถียรภาพในการดำเนินงานและการจัดการทรัพยากร นอกจากนี้ สำหรับซีเควนเซอร์แบบออนไลน์ การคำนวณธุรกรรมจะดำเนินการนอกเครือข่ายก่อน จากนั้นจึงอัปโหลดไปยังห่วงโซ่หลังจากการคำนวณและดำเนินการสำเร็จ โหมดการดำเนินการนี้สามารถลดต้นทุนการดำเนินการของธุรกรรมที่ล้มเหลวได้
ชั้นแอปพลิเคชัน
ผู้ใช้ทุกคนสามารถสร้างส่วนหน้าบนเลเยอร์แอปพลิเคชันได้ และ Heurist มีเกตเวย์การชำระเงินสองโหมด ซึ่งนักพัฒนาสามารถชำระเงินทรัพยากรบางอย่างล่วงหน้าโดยการคำนวณคะแนน หรือสามารถชำระเงินโดยตรงตามการใช้งานของผู้ใช้โดยกระจายต้นทุนให้กับผู้ใช้ อย่างหลังยังสามารถให้ตัวเลือกการชำระเงินอัตโนมัติสำหรับตัวแทน AI
โดยรวมแล้ว ข้อดีของ Heurist คือสถาปัตยกรรมแบบกระจายอำนาจช่วยเพิ่มความต้านทานข้อผิดพลาดของระบบและความปลอดภัยของข้อมูล ในขณะที่ลดต้นทุนการดำเนินงานโดยการใช้ทรัพยากรคอมพิวเตอร์ที่ไม่ได้ใช้งาน การจัดสรรทรัพยากรแบบไดนามิกช่วยปรับปรุงการใช้ทรัพยากร และฟังก์ชันการปรับโหลดช่วยเพิ่มระบบ ความยืดหยุ่นและ ความสามารถในการปรับขนาดและการตรวจสอบเศรษฐกิจเข้ารหัสที่สร้างโดย ZK Stack ช่วยให้มั่นใจในความสมบูรณ์และความน่าเชื่อถือของผลการคำนวณ ทำให้ทั้งระบบสามารถปรับให้เข้ากับข้อกำหนดปริมาณงานต่างๆ ได้อย่างมีประสิทธิภาพและปลอดภัย และมอบประสบการณ์ที่มั่นคงแก่ผู้ใช้และนักพัฒนา
ผลิตภัณฑ์และการใช้งาน
แอปพลิเคชันกระแสหลักในปัจจุบันที่สร้างบน Heurist ได้แก่ Heurist Imagine (การสร้างงานศิลปะ AI NFT), Pondera (การสนทนาด้วย AI), Heurist Search (การค้นหาด้วย AI) และ Babel Bot (หุ่นยนต์แปล Discord) ฯลฯ ซึ่งครอบคลุมกรณีการใช้งาน AI กระแสหลัก ด้วยการประมวลผล GPU แบบกระจายอำนาจ ประสิทธิภาพต้นทุนโดยรวมได้รับการปรับปรุงหลายครั้งเมื่อเทียบกับรุ่นโอเพ่นซอร์ส นอกเหนือจากโมเดลกราฟทั่วไปแล้ว Heurist ยังมีโมเดลที่ได้รับการปรับแต่งอย่างละเอียดโดยเน้นที่ Web3 Agent และ IP เช่น โมเดลภาษา Theia ที่พัฒนาโดย Chainbase, โมเดล IP Zeek ดั้งเดิมในระบบนิเวศ ZKsync, โมเดล Magus Devon ที่สร้างโดยชุมชน Forgotten Runes ฯลฯ Heurist ขับเคลื่อน AI Agent ที่หลากหลายที่สร้างขึ้นบนบล็อกเชนผ่านโมเดล Web3 AI ที่ปรับแต่งได้สูงเหล่านี้ ซึ่งสามารถประกอบได้และทนทานต่อการเซ็นเซอร์ ด้วยการประมวลผล GPU แบบออนไลน์ ประสิทธิภาพด้านต้นทุนโดยรวมได้รับการปรับปรุงให้ดีขึ้นเมื่อเทียบกับโมเดลแบบปิด ทำให้เป็นเลเยอร์โมเดลและเลเยอร์พลังการประมวลผลของระบบนิเวศ AI Agent
การก่อสร้างเชิงนิเวศน์
ในแง่ของการสร้างระบบเศรษฐกิจ ในอนาคต โทเค็นดั้งเดิมของ Heurist HEU สามารถจ่ายเงินให้นักพัฒนาสำหรับทรัพยากรการประมวลผล ทำหน้าที่เป็นต้นทุนก๊าซของการทำธุรกรรมของผู้ใช้ และสนับสนุนฟังก์ชันการวางหลักและการกำกับดูแล ในแง่ของการจัดสรรหุ้น ระดับการปล่อยก๊าซเรือนกระจกสำหรับผู้ให้บริการพลังประมวลผลคือ 50% และการจัดสรรชุมชนในช่วงแรก (รวมถึงผู้ขุดเหมืองในยุคแรกและผู้ถือ NFT) คิดเป็น 7% กฎการปล่อยโทเค็นแบบยืดหยุ่นของ Heurist จะปรับอัตราเงินเฟ้อรายปีระหว่าง 1.25% ถึง 5% แบบไดนามิก เพื่อให้เกิดการขยายและการหดตัวของทรัพยากรการประมวลผลอย่างยืดหยุ่น เพื่อปรับให้เข้ากับความต้องการการประมวลผลที่เปลี่ยนแปลงไป
และ Heurist ได้ออกชุมชน Heurist Imaginaries NFT ในช่วงแรกของการก่อสร้าง ซึ่งเป็นซีรีส์ที่ประกอบด้วยงานศิลปะที่สร้างโดย AI จำนวน 500 ชิ้น แผนการ Airdrop ประกอบด้วยการ Airdrop รวม 1.75% ของโทเค็น HEU ให้กับผู้ถือซีรีส์นี้
Heurist มีพันธมิตรกับพันธมิตรในหลากหลายภาคส่วนอยู่แล้ว ในแง่ของพลังการประมวลผล GPU Heurist ร่วมมือกับบริษัทต่างๆ เช่น Aethir, Exabits, Spheron และ Mintair เพื่อจัดหาทรัพยากรการประมวลผลที่ทรงพลัง และจัดเตรียมรากฐานสำหรับการฝึกอบรมโมเดล AI และการสร้างเครือข่ายการอนุมาน ในด้าน AI และโครงสร้างพื้นฐานข้อมูล Heurist ได้สร้างความร่วมมือกับ GenLayer, Chasm Network, Aizel และ Gateway Network เพื่อให้มั่นใจถึงการไหลเวียนที่มีประสิทธิภาพและความปลอดภัยของข้อมูล
ในแง่ของการใช้งานสำหรับผู้บริโภค Heurist ร่วมมือกับบริษัทต่างๆ เช่น CreatorBid, Arbus AI, DecentAI และ Eden Art เพื่อนำเทคโนโลยี AI ไปสู่ตลาดผู้บริโภคในวงกว้าง ในแง่ของการใช้งานในด้าน AI Agent นั้น Heurist นำเสนอโมเดลกราฟที่ปรับแต่งเองสำหรับ CreatorBid โดยเฉพาะบริการที่ปรับแต่งเป็นพิเศษสำหรับแบรนด์ WallStreetBets ด้วยความร่วมมือเหล่านี้ แพลตฟอร์ม Heurist กำลังขยายอิทธิพลอย่างต่อเนื่อง และส่งเสริมการประยุกต์ใช้และพัฒนาเทคโนโลยี AI ในสาขาต่างๆ
ในแผนงาน โครงการจะออกโทเค็นในไตรมาสที่สี่ของปี 2024 การออกโทเค็นการขุดทางอากาศในไตรมาสแรก และเปิดตัวฟังก์ชันการชำระเงิน API ของนักพัฒนา ในปี 2568 ฟังก์ชันการปักหลักจะเปิดตัว และการขุดครั้งต่อไปและเชน ZK จะเปิดตัว และเปิดใช้งานฟังก์ชั่นการชำระเงินของผู้ใช้และระบบตรวจสอบพร้อมกัน ฯลฯ ผู้ใช้สามารถเข้าร่วมได้โดยบริจาค GPU (หน่วยความจำวิดีโอ 12 GB ขึ้นไป เช่น GTX 3090 หรือ 4090) เข้าร่วมในกิจกรรม Intract Points เข้าร่วมในกิจกรรม Create-to-earn ใน Heurist Imagine และสร้าง AI NFT เพื่อรับ ZK โทเค็น
บทสรุป
สังคมไซเบอร์ในอนาคตจะต้องอาศัยปฏิสัมพันธ์ระหว่าง AI และมนุษย์มากขึ้น และ Heurist จะช่วยแก้ปัญหาความเสี่ยงจากการรวมศูนย์ ต้นทุนที่สูง และปัญหาการใช้ทรัพยากรที่ต่ำของบริการคลาวด์แบบรวมศูนย์แบบดั้งเดิม และยังให้นักพัฒนาและผู้ใช้ AI รูปแบบใหม่ วิธีใช้ทรัพยากรในการประมวลผล ใช้แล้ว คาดว่าจะกลายเป็นสะพานเชื่อมเทคโนโลยี AI กับอนาคต ส่งเสริมการพัฒนาสังคมในทิศทางที่ชาญฉลาดยิ่งขึ้น และให้การสนับสนุนทางเทคนิคที่แข็งแกร่งสำหรับการสร้างสังคมไซเบอร์ที่ชาญฉลาด เชื่อมต่อถึงกัน และปลอดภัยยิ่งขึ้น ผู้ใช้สามารถเยี่ยมชม หน้าแรกของโครงการ , Discord , Twitter และ Medium เพื่อเรียนรู้เพิ่มเติม
ความคิดเห็นทั้งหมด