การวิเคราะห์เชิงลึก: AI และ Web3 สามารถสร้างประกายไฟประเภทใดได้บ้าง

ขั้นสูงJun 07, 2024
บทความนี้สํารวจการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ (AI) และ Web3 และคุณค่าและผลกระทบที่อาจเกิดขึ้นจากการรวมเข้าด้วยกัน AI เป็นเลิศในการเพิ่มประสิทธิภาพการทํางานในขณะที่ Web3 เปลี่ยนความสัมพันธ์ด้านการผลิตผ่านการกระจายอํานาจ การรวมกันของเทคโนโลยีเหล่านี้นํามาซึ่งแอปพลิเคชันที่เป็นนวัตกรรมใหม่ในการวิเคราะห์ข้อมูลบริการผู้ใช้ส่วนบุคคลและความปลอดภัยและการปกป้องความเป็นส่วนตัว
การวิเคราะห์เชิงลึก: AI และ Web3 สามารถสร้างประกายไฟประเภทใดได้บ้าง

บทนํา: การพัฒนา AI+Web3

ในช่วงไม่กี่ปีที่ผ่านมาการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) และเทคโนโลยี Web3 ได้รับความสนใจอย่างกว้างขวางทั่วโลก AI ซึ่งเป็นเทคโนโลยีที่จําลองและเลียนแบบความฉลาดของมนุษย์ได้บรรลุความก้าวหน้าที่สําคัญในสาขาต่างๆเช่นการจดจําใบหน้าการประมวลผลภาษาธรรมชาติและการเรียนรู้ของเครื่อง ความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI ทําให้เกิดการเปลี่ยนแปลงและนวัตกรรมอย่างมากในอุตสาหกรรมต่างๆ

อุตสาหกรรม AI มีขนาดตลาดถึง 200 พันล้านดอลลาร์ในปี 2023 โดยมียักษ์ใหญ่ในอุตสาหกรรมและผู้เล่นที่โดดเด่นเช่น OpenAI, Character.AI และ Midjourney เกิดขึ้นอย่างรวดเร็วและเป็นผู้นําในการเติบโตของ AI

ในขณะเดียวกัน Web3 ซึ่งเป็นรูปแบบอินเทอร์เน็ตที่เกิดขึ้นใหม่กําลังค่อยๆเปลี่ยนการรับรู้และการใช้อินเทอร์เน็ตของเรา ด้วยเทคโนโลยีบล็อกเชนแบบกระจายอํานาจ Web3 ตระหนักถึงการแบ่งปันข้อมูลและการควบคุมความเป็นอิสระของผู้ใช้และการสร้างกลไกความไว้วางใจผ่านคุณสมบัติต่างๆเช่นสัญญาอัจฉริยะการจัดเก็บแบบกระจายและการยืนยันตัวตนแบบกระจายอํานาจ แนวคิดหลักของ Web3 คือการปลดปล่อยข้อมูลจากหน่วยงานส่วนกลางทําให้ผู้ใช้สามารถควบคุมและแบ่งปันคุณค่าของข้อมูลของตนได้

ปัจจุบันมูลค่าตลาดของอุตสาหกรรม Web3 สูงถึง 25 ล้านล้านดอลลาร์ ตั้งแต่ Bitcoin, Ethereum และ Solana ไปจนถึงผู้เล่นระดับแอปพลิเคชันเช่น Uniswap และ Stepn การเล่าเรื่องและสถานการณ์ใหม่ ๆ กําลังเกิดขึ้นอย่างต่อเนื่องดึงดูดผู้คนให้เข้าร่วมอุตสาหกรรม Web3 มากขึ้นเรื่อย

เห็นได้ชัดว่าการรวม AI และ Web3 เป็นจุดโฟกัสสําหรับผู้สร้างและผู้ร่วมทุนจากทั้งตะวันออกและตะวันตก การสํารวจวิธีการรวมเทคโนโลยีทั้งสองนี้เข้าด้วยกันอย่างมีประสิทธิภาพเป็นความพยายามที่คุ้มค่าอย่างมาก

บทความนี้จะมุ่งเน้นไปที่สถานะปัจจุบันของการพัฒนา AI+Web3 สํารวจคุณค่าที่อาจเกิดขึ้นและผลกระทบของการรวมระบบ ก่อนอื่นเราจะแนะนําแนวคิดพื้นฐานและลักษณะของ AI และ Web3 จากนั้นหารือเกี่ยวกับความสัมพันธ์ของพวกเขา หลังจากนี้เราจะวิเคราะห์สถานะปัจจุบันของโครงการ AI + Web3 และเจาะลึกข้อ จํากัด และความท้าทายที่พวกเขาเผชิญ ด้วยการวิจัยนี้เรามุ่งมั่นที่จะให้ข้อมูลอ้างอิงและข้อมูลเชิงลึกที่มีคุณค่าสําหรับนักลงทุนและผู้เชี่ยวชาญในอุตสาหกรรม

วิธีที่ AI โต้ตอบกับ Web3

การพัฒนา AI และ Web3 สามารถเห็นได้ว่าเป็นสองด้านของมาตราส่วน: AI นําการปรับปรุงประสิทธิภาพการทํางานในขณะที่ Web3 ปฏิวัติความสัมพันธ์ในการผลิต ดังนั้น AI และ Web3 สามารถสร้างประกายไฟชนิดใดได้บ้างเมื่อชนกัน ก่อนอื่นเราจะวิเคราะห์ความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม AI และ Web3 จากนั้นสํารวจว่าพวกเขาสามารถช่วยแก้ปัญหาของกันและกันได้อย่างไร

  1. ความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในความท้าทายของอุตสาหกรรม AI
  2. และการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม Web3

2.1 ความท้าทายในอุตสาหกรรม AI

ในการสํารวจความท้าทายที่อุตสาหกรรม AI ต้องเผชิญเราต้องเข้าใจสาระสําคัญของมันก่อน แกนหลักของอุตสาหกรรม AI หมุนรอบองค์ประกอบหลักสามประการ: พลังการคํานวณอัลกอริทึมและข้อมูล

  1. ประการแรกพลังการคํานวณ: พลังการคํานวณหมายถึงความสามารถในการคํานวณและการประมวลผลขนาดใหญ่ งาน AI มักต้องการการจัดการข้อมูลจํานวนมากและดําเนินการคํานวณที่ซับซ้อน เช่น การฝึกอบรมโมเดลเครือข่ายประสาทเทียมเชิงลึก พลังการคํานวณสูงสามารถเร่งการฝึกอบรมแบบจําลองและกระบวนการอนุมานเพิ่มประสิทธิภาพและประสิทธิภาพของระบบ AI ในช่วงไม่กี่ปีที่ผ่านมาความก้าวหน้าทางเทคโนโลยีฮาร์ดแวร์เช่นหน่วยประมวลผลกราฟิก (GPU) และชิป AI เฉพาะ (เช่น TPUs) ได้เพิ่มพลังการคํานวณอย่างมีนัยสําคัญขับเคลื่อนการพัฒนาอุตสาหกรรม AI Nvidia ซึ่งเป็นผู้ให้บริการ GPU รายใหญ่ได้เห็นราคาหุ้นพุ่งสูงขึ้นในช่วงไม่กี่ปีที่ผ่านมาโดยจับส่วนแบ่งการตลาดขนาดใหญ่และได้รับผลกําไรจํานวนมาก
  2. อัลกอริทึมคืออะไร: อัลกอริทึมเป็นองค์ประกอบหลักของระบบ AI พวกเขาเป็นวิธีการทางคณิตศาสตร์และสถิติที่ใช้ในการแก้ปัญหาและทํางาน อัลกอริธึม AI สามารถแบ่งออกเป็นอัลกอริธึมแมชชีนเลิร์นนิ่งแบบดั้งเดิมและอัลกอริธึมการเรียนรู้เชิงลึก โดยอัลกอริธึมการเรียนรู้เชิงลึกได้สร้างความก้าวหน้าอย่างมากในช่วงไม่กี่ปีที่ผ่านมา ทางเลือกและการออกแบบอัลกอริธึมมีความสําคัญต่อประสิทธิภาพและประสิทธิผลของระบบ AI การปรับปรุงอย่างต่อเนื่องและนวัตกรรมในอัลกอริทึมสามารถเพิ่มความแม่นยําความทนทานและความสามารถทั่วไปของระบบ AI อัลกอริธึมที่แตกต่างกันให้ผลลัพธ์ที่แตกต่างกันดังนั้นความก้าวหน้าในอัลกอริทึมจึงเป็นสิ่งจําเป็นสําหรับประสิทธิภาพของงาน
  3. เหตุใดข้อมูลจึงมีความสําคัญ: งานหลักของระบบ AI คือการดึงรูปแบบและกฎจากข้อมูลผ่านการเรียนรู้และการฝึกอบรม ข้อมูลเป็นรากฐานสําหรับการฝึกอบรมและการเพิ่มประสิทธิภาพโมเดล ด้วยตัวอย่างข้อมูลขนาดใหญ่ระบบ AI สามารถเรียนรู้โมเดลที่แม่นยําและชาญฉลาดยิ่งขึ้น ชุดข้อมูลที่หลากหลายให้ข้อมูลที่ครอบคลุมและหลากหลายทําให้โมเดลสามารถสรุปข้อมูลที่มองไม่เห็นได้ดีขึ้นและช่วยให้ระบบ AI เข้าใจและแก้ปัญหาในโลกแห่งความเป็นจริงได้ดีขึ้น

หลังจากทําความเข้าใจองค์ประกอบหลักสามประการของ AI ในปัจจุบันแล้วเรามาตรวจสอบความยากลําบากและความท้าทายที่ AI เผชิญในพื้นที่เหล่านี้

ประการแรกในแง่ของพลังการคํานวณงาน AI มักจะต้องใช้ทรัพยากรการคํานวณจํานวนมากสําหรับการฝึกอบรมแบบจําลองและการอนุมานโดยเฉพาะอย่างยิ่งสําหรับโมเดลการเรียนรู้เชิงลึก อย่างไรก็ตามการได้รับและจัดการพลังการคํานวณขนาดใหญ่เป็นความท้าทายที่มีราคาแพงและซับซ้อน ค่าใช้จ่ายการใช้พลังงานและการบํารุงรักษาอุปกรณ์คอมพิวเตอร์ประสิทธิภาพสูงเป็นปัญหาสําคัญ นี่เป็นความท้าทายอย่างยิ่งสําหรับสตาร์ทอัพและนักพัฒนารายบุคคลซึ่งการได้รับพลังการคํานวณที่เพียงพออาจเป็นเรื่องยาก

ในแง่ของอัลกอริทึมแม้จะมีความสําเร็จอย่างมีนัยสําคัญของอัลกอริธึมการเรียนรู้เชิงลึกในหลายสาขา แต่ก็ยังมีความท้าทายและความยากลําบาก ตัวอย่างเช่นการฝึกอบรมเครือข่ายประสาทเทียมลึกต้องใช้ข้อมูลและทรัพยากรการคํานวณจํานวนมาก นอกจากนี้สําหรับงานบางอย่างความสามารถในการตีความและอธิบายแบบจําลองอาจไม่เพียงพอ ความทนทานและความสามารถทั่วไปของอัลกอริธึมก็เป็นปัญหาสําคัญเช่นกัน เนื่องจากประสิทธิภาพของโมเดลบนข้อมูลที่มองไม่เห็นอาจไม่เสถียร การค้นหาอัลกอริธึมที่ดีที่สุดเพื่อให้ประสิทธิภาพสูงสุดในบรรดาอัลกอริทึมจํานวนมากคือการสํารวจอย่างต่อเนื่อง

ในแง่ของข้อมูลข้อมูลเป็นแรงผลักดันที่อยู่เบื้องหลัง AI แต่การได้รับข้อมูลที่มีคุณภาพสูงและหลากหลายยังคงเป็นความท้าทาย ข้อมูลในบางสาขาเช่นข้อมูลสุขภาพที่ละเอียดอ่อนในภาคการแพทย์อาจเป็นเรื่องยากที่จะได้รับ นอกจากนี้คุณภาพความถูกต้องและการติดฉลากข้อมูลเป็นปัญหาสําคัญเนื่องจากข้อมูลที่ไม่สมบูรณ์หรือมีอคติอาจนําไปสู่พฤติกรรมหรืออคติของแบบจําลองที่ผิดพลาด การปกป้องความเป็นส่วนตัวและความปลอดภัยของข้อมูลก็เป็นข้อพิจารณาที่สําคัญเช่นกัน

นอกจากนี้ยังมีประเด็นที่เกี่ยวข้องกับการตีความและความโปร่งใส ลักษณะ "กล่องดํา" ของโมเดล AI เป็นข้อกังวลของสาธารณชน ในแอปพลิเคชันบางอย่างเช่นการเงินการดูแลสุขภาพและความยุติธรรมกระบวนการตัดสินใจของแบบจําลองจะต้องสามารถตีความและตรวจสอบย้อนกลับได้ อย่างไรก็ตาม โมเดลการเรียนรู้เชิงลึกที่มีอยู่มักขาดความโปร่งใส การอธิบายกระบวนการตัดสินใจของแบบจําลองและการให้คําอธิบายที่เชื่อถือได้ยังคงเป็นเรื่องที่ท้าทาย

นอกจากนี้รูปแบบธุรกิจของโครงการสตาร์ทอัพ AI จํานวนมากยังไม่ชัดเจนซึ่งทําให้เกิดความสับสนสําหรับผู้ประกอบการ AI จํานวนมาก

2.2 ความท้าทายในอุตสาหกรรม

Web3 ในอุตสาหกรรม Web3 มีความท้าทายมากมายที่ต้องได้รับการแก้ไขตั้งแต่การวิเคราะห์ข้อมูลและประสบการณ์ของผู้ใช้ไปจนถึงช่องโหว่ของสัญญาอัจฉริยะและการโจมตีของแฮ็กเกอร์ AI เป็นเครื่องมือในการเพิ่มผลผลิตมีศักยภาพที่สําคัญในด้านเหล่านี้

ประการแรกมีพื้นที่สําหรับการปรับปรุงการวิเคราะห์ข้อมูลและความสามารถในการคาดการณ์ แอปพลิเคชัน AI ในการวิเคราะห์และคาดการณ์ข้อมูลมีผลกระทบอย่างมากต่ออุตสาหกรรม Web3 ด้วยการวิเคราะห์และการขุดอัจฉริยะโดยอัลกอริธึม AI แพลตฟอร์ม Web3 สามารถดึงข้อมูลที่มีค่าจากข้อมูลจํานวนมหาศาลและทําการคาดการณ์และการตัดสินใจที่แม่นยํายิ่งขึ้น สิ่งนี้มีความสําคัญอย่างยิ่งสําหรับการประเมินความเสี่ยงการคาดการณ์ตลาดและการจัดการสินทรัพย์ในการเงินแบบกระจายอํานาจ (DeFi)

นอกจากนี้ยังมีศักยภาพในการปรับปรุงประสบการณ์ของผู้ใช้และบริการส่วนบุคคล แอปพลิเคชัน AI ช่วยให้แพลตฟอร์ม Web3 สามารถมอบประสบการณ์การใช้งานที่ดีขึ้นและบริการส่วนบุคคล ด้วยการวิเคราะห์และสร้างแบบจําลองข้อมูลผู้ใช้แพลตฟอร์ม Web3 สามารถให้คําแนะนําส่วนบุคคลบริการที่กําหนดเองและประสบการณ์การโต้ตอบอัจฉริยะ สิ่งนี้ช่วยเพิ่มการมีส่วนร่วมและความพึงพอใจของผู้ใช้ส่งเสริมการพัฒนาระบบนิเวศ Web3 ตัวอย่างเช่นโปรโตคอล Web3 จํานวนมากรวมเครื่องมือ AI เช่น ChatGPT เพื่อให้บริการผู้ใช้ได้ดียิ่งขึ้น

ในแง่ของความปลอดภัยและการปกป้องความเป็นส่วนตัวแอปพลิเคชัน AI ยังมีผลกระทบอย่างลึกซึ้งต่ออุตสาหกรรม Web3 เทคโนโลยี AI สามารถใช้เพื่อตรวจจับและป้องกันการโจมตีเครือข่ายระบุพฤติกรรมที่ผิดปกติและให้มาตรการรักษาความปลอดภัยที่แข็งแกร่งขึ้น นอกจากนี้ AI ยังสามารถนําไปใช้กับการปกป้องความเป็นส่วนตัวของข้อมูลปกป้องข้อมูลส่วนบุคคลของผู้ใช้บนแพลตฟอร์ม Web3 ผ่านเทคนิคต่างๆเช่นการเข้ารหัสข้อมูลและการประมวลผลความเป็นส่วนตัว เกี่ยวกับการตรวจสอบสัญญาอัจฉริยะเนื่องจากช่องโหว่และความเสี่ยงด้านความปลอดภัยอาจมีอยู่ในกระบวนการเขียนและตรวจสอบของสัญญาอัจฉริยะเทคโนโลยี AI สามารถใช้สําหรับการตรวจสอบสัญญาอัตโนมัติและการตรวจจับช่องโหว่เพิ่มความปลอดภัยและความน่าเชื่อถือของสัญญา

เห็นได้ชัดว่า AI สามารถมีส่วนสําคัญในการจัดการกับความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม Web3 ในด้านต่างๆ

การวิเคราะห์สถานการณ์ปัจจุบันของโครงการ AI+Web3

การรวมโครงการ AI และ Web3 มุ่งเน้นไปที่สองประเด็นหลัก: การใช้ประโยชน์จากเทคโนโลยีบล็อกเชนเพื่อปรับปรุงโครงการ AI และการใช้เทคโนโลยี AI เพื่อรองรับการปรับปรุงโครงการ Web3 โครงการจํานวนมากได้เกิดขึ้นตามเส้นทางนี้รวมถึง Io.net, Gensyn, Ritual และอื่น ๆ การวิเคราะห์ต่อไปนี้จะเจาะลึกโดเมนย่อยต่างๆ ที่ AI ช่วย Web3 และที่ Web3 ปรับปรุง AI

3.1 Web3 ช่วยให้ AI

3.1.1 พลังการประมวลผลแบบกระจายอํานาจ

นับตั้งแต่เปิดตัว ChatGPT โดย OpenAI เมื่อปลายปี 2022 มันจุดประกายความคลั่งไคล้ในสาขา AI ภายในห้าวันหลังจากการเปิดตัวฐานผู้ใช้ถึงหนึ่งล้านคนซึ่งเกินอัตราการดาวน์โหลดของ Instagram ซึ่งใช้เวลาประมาณสองเดือนครึ่งกว่าจะบรรลุเป้าหมายเดียวกัน ต่อจากนั้น ChatGPT มีการเติบโตอย่างรวดเร็วโดยมีผู้ใช้งานรายเดือนถึง 100 ล้านคนภายในสองเดือนและผู้ใช้งานรายสัปดาห์ถึง 100 ล้านคนภายในเดือนพฤศจิกายน 2023 ด้วยการถือกําเนิดของ ChatGPT ภาค AI ได้เปลี่ยนจากสาขาเฉพาะกลุ่มไปสู่อุตสาหกรรมที่ได้รับการยอมรับอย่างสูงอย่างรวดเร็ว

ตามรายงานของ Trendforce ChatGPT ต้องการ NVIDIA A100 GPU 30,000 ตัวในการทํางาน และรุ่นในอนาคตเช่น GPT-5 จะต้องใช้พลังในการคํานวณมากยิ่งขึ้น สิ่งนี้ได้จุดประกายการแข่งขันด้านอาวุธในหมู่ บริษัท AI ต่างๆ เนื่องจากการมีพลังการคํานวณที่เพียงพอเป็นสิ่งสําคัญสําหรับการรักษาความได้เปรียบในการแข่งขันในเวที AI ซึ่งนําไปสู่การขาดแคลน GPU

ก่อนที่จะมีการเพิ่มขึ้นของ AI ผู้ให้บริการ GPU รายใหญ่ NVIDIA ให้บริการลูกค้าเป็นหลักจากบริการคลาวด์หลักสามแห่ง ได้แก่ AWS, Azure และ GCP ด้วยการเพิ่มขึ้นของปัญญาประดิษฐ์ผู้ซื้อรายใหม่จํานวนมากเกิดขึ้นรวมถึง บริษัท เทคโนโลยีรายใหญ่เช่น Meta, Oracle รวมถึงแพลตฟอร์มข้อมูลอื่น ๆ และสตาร์ทอัพ AI ทั้งหมดเข้าร่วมการแข่งขันเพื่อกักตุน GPU สําหรับการฝึกอบรมโมเดล AI บริษัทเทคโนโลยีขนาดใหญ่เช่น Meta และ Tesla เพิ่มการซื้อโมเดล AI ที่กําหนดเองและการวิจัยภายในอย่างมีนัยสําคัญ บริษัทโมเดลพื้นฐานเช่น Anthropic และแพลตฟอร์มข้อมูลเช่น Snowflake และ Databricks ยังซื้อ GPU เพิ่มเติมเพื่อช่วยเหลือลูกค้าในการให้บริการ AI

ดังที่ได้กล่าวไว้โดย Semi Analysis เมื่อปีที่แล้ว มีการแบ่งระหว่าง บริษัท "GPU rich" และ "GPU poor" โดยมีเพียงไม่กี่แห่งที่มี GPU A100/H100 มากกว่า 20,000 ตัว ทําให้สมาชิกในทีมสามารถใช้ GPU ระหว่าง 100 ถึง 1,000 ตัวสําหรับโครงการได้ บริษัทเหล่านี้เป็นผู้ให้บริการคลาวด์หรือสร้างโมเดลภาษาขนาดใหญ่ (LLMs) ของตนเอง รวมถึง OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral เป็นต้น

อย่างไรก็ตาม บริษัท ส่วนใหญ่ตกอยู่ในหมวดหมู่" GPU ที่ไม่ดี" ดิ้นรนกับ GPU น้อยลงอย่างมีนัยสําคัญและใช้เวลาและความพยายามอย่างมากในงานที่ยากต่อการพัฒนาระบบนิเวศ ยิ่งไปกว่านั้นสถานการณ์นี้ไม่ได้ จํากัด เฉพาะสตาร์ทอัพ บริษัท AI ที่มีชื่อเสียงที่สุดบางแห่งเช่น Hugging Face, Databricks (MosaicML), Together และแม้แต่ Snowflake มีปริมาณ A100 / H100 น้อยกว่า 20,000 แม้จะมีความสามารถด้านเทคนิคระดับโลก แต่ บริษัท เหล่านี้ก็ถูก จํากัด ด้วยการจัดหา GPU ที่ จํากัด ทําให้พวกเขาเสียเปรียบเมื่อเทียบกับ บริษัท ขนาดใหญ่ในการแข่งขัน AI

การขาดแคลนนี้ไม่ได้ จํากัด เฉพาะหมวดหมู่ "GPU ที่ไม่ดี" แม้ภายในสิ้นปี 2023 ผู้เล่น AI ชั้นนํา OpenAI ต้องปิดการลงทะเบียนแบบชําระเงินชั่วคราวเนื่องจากไม่สามารถรับ GPU ที่เพียงพอและต้องจัดหาอุปกรณ์ GPU เพิ่มเติม

เห็นได้ชัดว่าการพัฒนาอย่างรวดเร็วของ AI ได้นําไปสู่ความไม่ตรงกันอย่างรุนแรงระหว่างอุปสงค์และอุปทานของ GPU ทําให้เกิดการขาดแคลนอุปทานที่ใกล้เข้ามา

เพื่อแก้ไขปัญหานี้บางโครงการ Web3 ได้เริ่มสํารวจโซลูชันพลังงานการประมวลผลแบบกระจายอํานาจโดยใช้ประโยชน์จากลักษณะเฉพาะของเทคโนโลยี Web3 โครงการเหล่านี้รวมถึง Akash, Render, Gensyn และอื่น ๆ คุณลักษณะทั่วไปของโครงการเหล่านี้คือการใช้โทเค็นเพื่อจูงใจผู้ใช้ให้พลังการประมวลผล GPU ที่ไม่ได้ใช้งานจึงกลายเป็นด้านอุปทานของพลังการประมวลผลเพื่อสนับสนุนไคลเอนต์ AI

โปรไฟล์ด้านอุปทานส่วนใหญ่ประกอบด้วยสามด้าน: ผู้ให้บริการคลาวด์นักขุดสกุลเงินดิจิทัลและองค์กร ผู้ให้บริการระบบคลาวด์ประกอบด้วยผู้ให้บริการระบบคลาวด์รายใหญ่ (เช่น AWS, Azure, GCP) และผู้ให้บริการระบบคลาวด์ GPU (เช่น Coreweave, Lambda, Crusoe) ซึ่งผู้ใช้สามารถขายพลังการประมวลผลที่ไม่ได้ใช้งานจากผู้ให้บริการเหล่านี้เพื่อสร้างรายได้ ด้วย Ethereum ที่เปลี่ยนจาก PoW เป็น PoS พลังการประมวลผล GPU ที่ไม่ได้ใช้งานได้กลายเป็นด้านอุปทานที่สําคัญสําหรับนักขุดสกุลเงินดิจิทัล นอกจากนี้องค์กรขนาดใหญ่เช่น Tesla และ Meta ซึ่งซื้อ GPU จํานวนมากเพื่อวัตถุประสงค์เชิงกลยุทธ์ยังสามารถมีส่วนร่วมในพลังการประมวลผล GPU ที่ไม่ได้ใช้งานซึ่งเป็นส่วนหนึ่งของด้านอุปทาน

ปัจจุบันผู้เล่นในสาขานี้โดยทั่วไปสามารถแบ่งออกเป็นสองประเภท: ผู้ที่ใช้พลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI และผู้ที่ใช้สําหรับการฝึกอบรม AI หมวดหมู่เดิมรวมถึงโครงการเช่น Render (แม้ว่าจะเน้นการเรนเดอร์ แต่ก็สามารถใช้สําหรับการประมวลผล AI), Akash, Aethir ในขณะที่หมวดหมู่หลังรวมถึงโครงการเช่น io.net (สนับสนุนทั้งการอนุมานและการฝึกอบรม) และ Gensyn ความแตกต่างที่สําคัญระหว่างทั้งสองอยู่ในข้อกําหนดที่แตกต่างกันสําหรับพลังการประมวลผล

ก่อนอื่นเรามาพูดถึงโครงการที่เน้นการอนุมาน AI กันก่อน โครงการเหล่านี้ดึงดูดผู้ใช้ให้มอบพลังการประมวลผลผ่านสิ่งจูงใจโทเค็นจากนั้นให้บริการเครือข่ายพลังงานคอมพิวเตอร์ไปยังด้านอุปสงค์ซึ่งจะช่วยอํานวยความสะดวกในการจับคู่แหล่งจ่ายไฟและอุปสงค์ที่ไม่ได้ใช้งาน รายละเอียดเกี่ยวกับโครงการดังกล่าวครอบคลุมอยู่ในรายงานการวิจัยโดย DePIN จาก Ryze Labs ของเรา อย่าลังเลที่จะอ่าน

จุดหลักอยู่ในกลไกแรงจูงใจโทเค็นซึ่งโครงการจะดึงดูดซัพพลายเออร์และผู้ใช้ก่อนจึงบรรลุการเริ่มต้นเย็นและกลไกการดําเนินงานหลักของโครงการทําให้สามารถขยายและพัฒนาต่อไปได้ ในรอบนี้ด้านอุปทานจะได้รับรางวัลโทเค็นที่มีค่ามากขึ้นในขณะที่ด้านอุปสงค์เพลิดเพลินกับบริการที่คุ้มค่ากว่า มูลค่าของโทเค็นของโครงการและการเติบโตของผู้เข้าร่วมทั้งอุปสงค์และอุปทานยังคงสอดคล้องกัน เมื่อราคาโทเค็นเพิ่มขึ้นผู้เข้าร่วมและนักเก็งกําไรจํานวนมากขึ้นจะถูกดึงดูดทําให้เกิดลูปการจับมูลค่า

อีกหมวดหมู่หนึ่งเกี่ยวข้องกับการใช้พลังการประมวลผลแบบกระจายอํานาจสําหรับการฝึกอบรม AI เช่น Gensyn และ io.net (ซึ่งรองรับทั้งการฝึกอบรม AI และการอนุมาน) ในความเป็นจริงตรรกะการดําเนินงานของโครงการเหล่านี้ไม่ได้แตกต่างจากโครงการอนุมาน AI โดยพื้นฐาน พวกเขายังคงพึ่งพาสิ่งจูงใจโทเค็นเพื่อดึงดูดการมีส่วนร่วมจากด้านอุปทานเพื่อให้พลังการประมวลผลซึ่งจะถูกใช้โดยด้านอุปสงค์

ปัจจุบัน io.net ในฐานะเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจปัจจุบันมี GPU มากกว่า 500,000 ตัวทําให้เป็นนักแสดงที่โดดเด่นในโครงการพลังงานการประมวลผลแบบกระจายอํานาจ นอกจากนี้ยังได้รวมพลังการประมวลผลจาก Render และ Filecoin ซึ่งแสดงให้เห็นถึงการพัฒนาระบบนิเวศอย่างต่อเนื่อง

นอกจากนี้ Gensyn ยังอํานวยความสะดวกในการจัดสรรงานแมชชีนเลิร์นนิ่งและให้รางวัลผ่านสัญญาอัจฉริยะเพื่อเปิดใช้งานการฝึกอบรม AI ดังที่แสดงในแผนภาพด้านล่าง ค่าใช้จ่ายรายชั่วโมงของงานฝึกอบรมแมชชีนเลิร์นนิ่งใน Gensyn อยู่ที่ประมาณ 0.4 USD ซึ่งต่ํากว่าค่าใช้จ่ายมากกว่า 2 USD สําหรับ AWS และ GCP อย่างมาก

ระบบนิเวศ Gensyn เกี่ยวข้องกับสี่เอนทิตีที่เข้าร่วม:

  • ผู้ส่ง: นี่คือผู้ใช้ด้านอุปสงค์ที่ใช้งานและจ่ายเงินสําหรับงานฝึกอบรม AI
  • ผู้ดําเนินการ: ผู้ดําเนินการดําเนินงานของการฝึกอบรมแบบจําลองและให้หลักฐานความสําเร็จของงานสําหรับการตรวจสอบ
  • ผู้ตรวจสอบ: ผู้ตรวจสอบเชื่อมต่อกระบวนการฝึกอบรมแบบไม่กําหนดกับการคํานวณเชิงเส้นที่กําหนด พวกเขาเปรียบเทียบหลักฐานที่ได้รับจากผู้ดําเนินการกับเกณฑ์ที่คาดหวัง
  • ผู้สื่อข่าว: ผู้สื่อข่าวตรวจสอบการทํางานของผู้ตรวจสอบและท้าทายเพื่อรับรางวัลเมื่อระบุปัญหา

อย่างที่เราเห็น Gensyn ตั้งเป้าที่จะเป็นโปรโตคอลการประมวลผลที่ปรับขนาดได้และคุ้มค่าสําหรับโมเดลการเรียนรู้เชิงลึกทั่วโลก อย่างไรก็ตามเมื่อมองไปที่สาขานี้เหตุใดโครงการส่วนใหญ่จึงเลือกพลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI มากกว่าการฝึกอบรม

มาช่วยเพื่อนที่ไม่คุ้นเคยกับการฝึกอบรมและการอนุมาน AI เข้าใจความแตกต่างระหว่างทั้งสอง:

  • การฝึกอบรม AI: หากเราเปรียบปัญญาประดิษฐ์กับนักเรียนการฝึกอบรมจะคล้ายกับการให้ความรู้และตัวอย่างจํานวนมากแก่ AI ซึ่งสามารถเข้าใจได้ว่าเป็นข้อมูล AI เรียนรู้จากตัวอย่างเหล่านี้ เนื่องจากการเรียนรู้เกี่ยวข้องกับการทําความเข้าใจและจดจําข้อมูลจํานวนมากกระบวนการนี้จึงต้องใช้พลังและเวลาในการคํานวณจํานวนมาก
  • AI Inference: แล้วการอนุมานคืออะไร? สามารถเข้าใจได้ว่าเป็นการใช้ความรู้ที่เรียนรู้เพื่อแก้ปัญหาหรือสอบ ในระหว่างการอนุมานปัญญาประดิษฐ์ใช้ความรู้ที่เรียนรู้เพื่อให้คําตอบแทนที่จะได้รับความรู้ใหม่ ดังนั้นข้อกําหนดการคํานวณสําหรับกระบวนการอนุมานจึงค่อนข้างเล็ก
จะเห็น

ได้ว่าความต้องการพลังการคํานวณสําหรับทั้งการอนุมาน AI และการฝึกอบรม AI แตกต่างกันอย่างมีนัยสําคัญ ความพร้อมใช้งานของพลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI และการฝึกอบรม AI จะได้รับการวิเคราะห์เพิ่มเติมในส่วนความท้าทายที่จะเกิดขึ้น

นอกจากนี้ Ritual ยังมีจุดมุ่งหมายเพื่อรวมเครือข่ายแบบกระจายกับผู้สร้างโมเดลเพื่อรักษาการกระจายอํานาจและความปลอดภัย ผลิตภัณฑ์แรก Infernet ช่วยให้สัญญาอัจฉริยะบนบล็อกเชนสามารถเข้าถึงโมเดล AI นอกเครือข่ายทําให้สัญญาดังกล่าวสามารถเข้าถึง AI ในลักษณะที่รักษาการตรวจสอบการกระจายอํานาจและการปกป้องความเป็นส่วนตัว

ผู้ประสานงานของ Infernet มีหน้าที่รับผิดชอบในการจัดการพฤติกรรมของโหนดในเครือข่ายและตอบสนองต่อคําขอคํานวณจากผู้บริโภค เมื่อผู้ใช้ใช้ Infernet งานต่างๆเช่นการอนุมานและการพิสูจน์จะดําเนินการนอกห่วงโซ่โดยผลลัพธ์จะถูกส่งกลับไปยังผู้ประสานงานและในที่สุดก็ส่งไปยังผู้บริโภคแบบ on-chain ผ่านสัญญาอัจฉริยะ

นอกเหนือจากเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจแล้วยังมีเครือข่ายแบนด์วิดท์แบบกระจายอํานาจเช่น Grass ซึ่งมีจุดมุ่งหมายเพื่อปรับปรุงความเร็วและประสิทธิภาพของการส่งข้อมูล โดยรวมแล้วการเกิดขึ้นของเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจให้ความเป็นไปได้ใหม่สําหรับด้านอุปทานของพลังการประมวลผล AI ขับเคลื่อน AI ไปข้างหน้าในทิศทางใหม่

3.1.2 รูปแบบอัลกอริทึมแบบกระจายอํานาจ

เช่นเดียวกับที่กล่าวไว้ในบทที่สององค์ประกอบหลักสามประการของ AI คือพลังการคํานวณอัลกอริทึมและข้อมูล เนื่องจากพลังการคํานวณสามารถสร้างเครือข่ายอุปทานผ่านการกระจายอํานาจอัลกอริทึมสามารถปฏิบัติตามแนวทางที่คล้ายกันและสร้างเครือข่ายอุปทานสําหรับแบบจําลองอัลกอริทึมได้หรือไม่?

ก่อนที่จะวิเคราะห์โครงการในสาขานี้ก่อนอื่นเรามาทําความเข้าใจความสําคัญของโมเดลอัลกอริทึมแบบกระจายอํานาจก่อน หลายคนอาจสงสัยว่าเนื่องจากเรามี OpenAI อยู่แล้วทําไมเราถึงต้องการเครือข่ายอัลกอริทึมแบบกระจายอํานาจ

โดยพื้นฐานแล้วเครือข่ายอัลกอริธึมแบบกระจายอํานาจเป็นตลาดบริการอัลกอริทึม AI แบบกระจายอํานาจที่เชื่อมต่อโมเดล AI ที่แตกต่างกันมากมาย โมเดล AI แต่ละรุ่นมีความเชี่ยวชาญและทักษะของตนเอง เมื่อผู้ใช้ตั้งคําถามตลาดจะเลือกโมเดล AI ที่เหมาะสมที่สุดเพื่อตอบคําถาม Chat-GPT พัฒนาโดย OpenAI เป็นหนึ่งในโมเดล AI ที่สามารถเข้าใจและสร้างข้อความที่คล้ายกับมนุษย์ได้

พูดง่ายๆก็คือ ChatGPT เป็นเหมือนนักเรียนที่มีความสามารถสูงในการแก้ปัญหาประเภทต่างๆในขณะที่เครือข่ายอัลกอริทึมแบบกระจายอํานาจเป็นเหมือนโรงเรียนที่มีนักเรียนจํานวนมากช่วยแก้ปัญหา แม้ว่านักเรียนปัจจุบัน (ChatGPT) จะมีความสามารถสูง แต่ในระยะยาวมีศักยภาพที่ดีสําหรับโรงเรียนที่สามารถรับสมัครนักเรียนจากทั่วโลก

ปัจจุบันในด้านแบบจําลองอัลกอริทึมแบบกระจายอํานาจยังมีบางโครงการที่กําลังทดลองและสํารวจ ต่อไปเราจะใช้โครงการตัวแทน Bittensor เป็นกรณีศึกษาเพื่อช่วยให้เข้าใจการพัฒนาของสาขาเฉพาะนี้

ใน Bittensor ด้านอุปทานของโมเดลอัลกอริทึม (หรือนักขุด) สนับสนุนโมเดลแมชชีนเลิร์นนิงให้กับเครือข่าย โมเดลเหล่านี้สามารถวิเคราะห์ข้อมูลและให้ข้อมูลเชิงลึกได้ ผู้ให้บริการโมเดลจะได้รับโทเค็นสกุลเงินดิจิทัลหรือที่เรียกว่า TAO เป็นรางวัลสําหรับการมีส่วนร่วมของพวกเขา

เพื่อให้มั่นใจในคุณภาพของคําตอบ Bittensor ใช้กลไกฉันทามติที่ไม่เหมือนใครเพื่อให้ได้ฉันทามติเกี่ยวกับคําตอบที่ดีที่สุด เมื่อมีการตั้งคําถามนักขุดแบบจําลองหลายคนจะให้คําตอบ จากนั้นผู้ตรวจสอบความถูกต้องในเครือข่ายเริ่มทํางานเพื่อกําหนดคําตอบที่ดีที่สุดซึ่งจะถูกส่งกลับไปยังผู้ใช้

TAO โทเค็นในระบบนิเวศ Bittensor มีบทบาทหลักสองประการตลอดกระบวนการ ในอีกด้านหนึ่งมันทําหน้าที่เป็นแรงจูงใจสําหรับนักขุดในการสนับสนุนโมเดลอัลกอริทึมให้กับเครือข่าย ในทางกลับกันผู้ใช้จําเป็นต้องใช้โทเค็นเพื่อถามคําถามและให้เครือข่ายทํางานให้เสร็จ

เนื่องจาก Bittensor มีการกระจายอํานาจทุกคนที่มีการเข้าถึงอินเทอร์เน็ตสามารถเข้าร่วมเครือข่ายได้ไม่ว่าจะเป็นผู้ใช้ถามคําถามหรือเป็นนักขุดที่ให้คําตอบ สิ่งนี้ช่วยให้ผู้คนจํานวนมากขึ้นสามารถควบคุมพลังของปัญญาประดิษฐ์

โดยสรุปเครือข่ายโมเดลอัลกอริทึมแบบกระจายอํานาจเช่น Bittensor มีศักยภาพในการสร้างภูมิทัศน์ที่เปิดกว้างและโปร่งใสมากขึ้น ในระบบนิเวศนี้โมเดล AI สามารถฝึกอบรมแบ่งปันและใช้ประโยชน์ในลักษณะที่ปลอดภัยและกระจายอํานาจ นอกจากนี้เครือข่ายอื่น ๆ เช่น BasedAI กําลังพยายามที่คล้ายกันโดยมีแง่มุมที่น่าสนใจในการใช้ Zero-Knowledge Proofs (ZK) เพื่อปกป้องความเป็นส่วนตัวของข้อมูลแบบโต้ตอบของแบบจําลองผู้ใช้ซึ่งจะกล่าวถึงเพิ่มเติมในส่วนย่อยที่สี่

เมื่อแพลตฟอร์มโมเดลอัลกอริธึมแบบกระจายอํานาจพัฒนาขึ้นจะช่วยให้ บริษัท ขนาดเล็กสามารถแข่งขันกับองค์กรขนาดใหญ่ในการใช้เครื่องมือ AI ที่ทันสมัยซึ่งอาจส่งผลกระทบอย่างมีนัยสําคัญในอุตสาหกรรมต่างๆ

3.1.3 การรวบรวมข้อมูลแบบกระจายอํานาจ

สําหรับการฝึกอบรมโมเดล AI การจัดหาข้อมูลจํานวนมากเป็นสิ่งที่ขาดไม่ได้ อย่างไรก็ตาม บริษัท Web2 ส่วนใหญ่ในปัจจุบันยังคงผูกขาดข้อมูลผู้ใช้ แพลตฟอร์มเช่น X, Reddit, TikTok, Snapchat, Instagram และ YouTube ห้ามรวบรวมข้อมูลสําหรับการฝึกอบรม AI ซึ่งเป็นอุปสรรคสําคัญต่อการพัฒนาอุตสาหกรรม AI

ในทางกลับกันแพลตฟอร์ม Web2 บางแห่งขายข้อมูลผู้ใช้ให้กับ บริษัท AI โดยไม่ต้องแบ่งปันผลกําไรใด ๆ กับผู้ใช้ ตัวอย่างเช่น Reddit บรรลุข้อตกลงมูลค่า 60 ล้านดอลลาร์กับ Google ทําให้ Google สามารถฝึกโมเดล AI โดยใช้โพสต์ได้ ส่งผลให้สิทธิในการรวบรวมข้อมูลถูกผูกขาดโดยบริษัทเงินทุนรายใหญ่และบริษัทข้อมูลขนาดใหญ่ ผลักดันอุตสาหกรรมไปสู่ทิศทางที่ต้องใช้เงินทุนสูง

เพื่อตอบสนองต่อสถานการณ์นี้บางโครงการใช้ประโยชน์จาก Web3 และแรงจูงใจโทเค็นเพื่อให้บรรลุการรวบรวมข้อมูลแบบกระจายอํานาจ ใช้ PublicAI เป็นตัวอย่าง: ผู้ใช้สามารถมีส่วนร่วมในสองบทบาท:

  • หมวดหมู่หนึ่งคือผู้ให้บริการข้อมูล AI ผู้ใช้สามารถค้นหาเนื้อหาที่มีค่าบน X แท็ก @PublicAI บัญชีทางการพร้อมข้อมูลเชิงลึกและใช้แฮชแท็ก #AI หรือ #Web3 เพื่อจัดหมวดหมู่เนื้อหาจึงส่งไปยังศูนย์ข้อมูล PublicAI เพื่อรวบรวม
  • อีกประเภทหนึ่งคือตัวตรวจสอบข้อมูล ผู้ใช้สามารถเข้าสู่ศูนย์ข้อมูล PublicAI และโหวตข้อมูลที่มีค่าที่สุดสําหรับการฝึกอบรม AI

เพื่อเป็นรางวัลผู้ใช้สามารถรับโทเค็นผ่านการมีส่วนร่วมเหล่านี้ส่งเสริมความสัมพันธ์แบบ win-win ระหว่างผู้ให้ข้อมูลและอุตสาหกรรม AI

นอกเหนือจากโครงการเช่น PublicAI ซึ่งรวบรวมข้อมูลสําหรับการฝึกอบรม AI โดยเฉพาะแล้วยังมีโครงการอื่น ๆ อีกมากมายที่ใช้สิ่งจูงใจโทเค็นสําหรับการรวบรวมข้อมูลแบบกระจายอํานาจ ตัวอย่างเช่น Ocean รวบรวมข้อมูลผู้ใช้ผ่านโทเค็นข้อมูลเพื่อให้บริการ AI Hivemapper ใช้กล้องรถยนต์ของผู้ใช้เพื่อรวบรวมข้อมูลแผนที่ Dimo รวบรวมข้อมูลรถยนต์และ WiHi รวบรวมข้อมูลสภาพอากาศ โครงการเหล่านี้ผ่านการรวบรวมข้อมูลแบบกระจายอํานาจยังทําหน้าที่เป็นแหล่งข้อมูลที่มีศักยภาพสําหรับการฝึกอบรม AI ดังนั้นในความหมายกว้างพวกเขาสามารถรวมอยู่ในกระบวนทัศน์ของ Web3 ช่วย AI

3.1.4 ZK ปกป้องความเป็นส่วนตัวของผู้ใช้ใน AI

เทคโนโลยีบล็อกเชนให้ประโยชน์ในการกระจายอํานาจและยังแนะนําคุณสมบัติที่สําคัญ: การพิสูจน์ความรู้เป็นศูนย์ เทคโนโลยีที่ไม่มีความรู้ช่วยให้สามารถตรวจสอบข้อมูลในขณะที่รักษาความเป็นส่วนตัว

ในแมชชีนเลิร์นนิงแบบดั้งเดิมข้อมูลมักจะต้องถูกจัดเก็บและประมวลผลจากส่วนกลางซึ่งอาจนําไปสู่ความเสี่ยงด้านความเป็นส่วนตัว วิธีการปกป้องความเป็นส่วนตัวของข้อมูล เช่น การเข้ารหัสหรือการไม่ระบุชื่อข้อมูล อาจจํากัดความถูกต้องและประสิทธิภาพของโมเดลแมชชีนเลิร์นนิ่ง

เทคโนโลยีการพิสูจน์ความรู้เป็นศูนย์ช่วยแก้ไขภาวะที่กลืนไม่เข้าคายไม่ออกนี้โดยจัดการกับความขัดแย้งระหว่างการปกป้องความเป็นส่วนตัวและการแบ่งปันข้อมูล Zero-Knowledge Machine Learning (ZKML) ใช้เทคโนโลยีการพิสูจน์ความรู้เป็นศูนย์เพื่อเปิดใช้งานการฝึกอบรมโมเดลแมชชีนเลิร์นนิ่งและการอนุมานโดยไม่ต้องเปิดเผยข้อมูลต้นฉบับ การพิสูจน์ความรู้เป็นศูนย์ช่วยให้มั่นใจได้ว่าคุณสมบัติของข้อมูลและผลลัพธ์ของแบบจําลองสามารถตรวจสอบได้ว่าถูกต้องโดยไม่เปิดเผยเนื้อหาข้อมูลจริง

เป้าหมายหลักของ ZKML คือการสร้างสมดุลระหว่างการปกป้องความเป็นส่วนตัวและการแบ่งปันข้อมูล สามารถนําไปใช้ในสถานการณ์ต่างๆเช่นการวิเคราะห์ข้อมูลการดูแลสุขภาพการวิเคราะห์ข้อมูลทางการเงินและการทํางานร่วมกันข้ามองค์กร ด้วยการใช้ ZKML บุคคลสามารถปกป้องความเป็นส่วนตัวของข้อมูลที่ละเอียดอ่อนของพวกเขาในขณะที่แบ่งปันข้อมูลกับผู้อื่นเพื่อรับข้อมูลเชิงลึกที่กว้างขึ้นและโอกาสในการทํางานร่วมกันโดยไม่เสี่ยงต่อการละเมิดความเป็นส่วนตัวของข้อมูล สาขานี้ยังอยู่ในช่วงเริ่มต้น โดยโครงการส่วนใหญ่ยังอยู่ระหว่างการสํารวจ ตัวอย่างเช่น BasedAI เสนอแนวทางการกระจายอํานาจโดยการรวม Fully Homomorphic Encryption (FHE) เข้ากับ Large Language Models (LLMs) อย่างราบรื่นเพื่อรักษาความลับของข้อมูล Zero-Knowledge Large Language Models (ZK-LLMs) ฝังความเป็นส่วนตัวลงในโครงสร้างพื้นฐานเครือข่ายแบบกระจายเพื่อให้มั่นใจว่าข้อมูลผู้ใช้จะยังคงเป็นความลับตลอดการทํางานของเครือข่าย

นี่คือคําอธิบายสั้น ๆ ของ Fully Homomorphic Encryption (FHE) FHE เป็นเทคนิคการเข้ารหัสที่ช่วยให้การคํานวณสามารถดําเนินการกับข้อมูลที่เข้ารหัสได้โดยไม่จําเป็นต้องถอดรหัส ซึ่งหมายความว่าการดําเนินการทางคณิตศาสตร์ต่างๆ (เช่นการบวกการคูณ ฯลฯ ) ที่ดําเนินการกับข้อมูลที่เข้ารหัส FHE จะให้ผลลัพธ์เช่นเดียวกับการดําเนินการกับข้อมูลที่ไม่ได้เข้ารหัสดั้งเดิมซึ่งจะช่วยปกป้องความเป็นส่วนตัวของข้อมูลผู้ใช้

นอกเหนือจากวิธีการดังกล่าวแล้ว Web3 ยังรองรับ AI ผ่านโครงการต่างๆเช่น Cortex ซึ่งช่วยให้สามารถดําเนินการโปรแกรม AI แบบ on-chain ได้ การเรียกใช้โปรแกรมแมชชีนเลิร์นนิงบนบล็อกเชนแบบดั้งเดิมต้องเผชิญกับความท้าทายเนื่องจากเครื่องเสมือนไม่มีประสิทธิภาพสูงในการเรียกใช้โมเดลแมชชีนเลิร์นนิ่งที่ไม่สําคัญ คนส่วนใหญ่เชื่อว่าการใช้ AI บนบล็อกเชนเป็นไปไม่ได้ อย่างไรก็ตาม Cortex Virtual Machine (CVM) ใช้ GPU เพื่อรันโปรแกรม AI แบบ on-chain และเข้ากันได้กับ Ethereum Virtual Machine (EVM) กล่าวอีกนัยหนึ่งห่วงโซ่ Cortex สามารถดําเนินการ Ethereum DApps ทั้งหมดและรวมการเรียนรู้ของเครื่อง AI เข้ากับ DApps เหล่านี้ สิ่งนี้ทําให้โมเดลแมชชีนเลิร์นนิงทํางานในลักษณะกระจายอํานาจ ไม่เปลี่ยนแปลง และโปร่งใส โดยมีฉันทามติของเครือข่ายที่ตรวจสอบแต่ละขั้นตอนของการอนุมาน AI

3.2 AI ช่วย Web3

ในการปะทะกันระหว่าง AI และ Web3 นอกเหนือจากความช่วยเหลือของ Web3 ต่อ AI แล้ว ความช่วยเหลือของ AI ต่ออุตสาหกรรม Web3 ก็ควรค่าแก่การเอาใจใส่เช่นกัน ผลงานหลักของปัญญาประดิษฐ์คือการปรับปรุงประสิทธิภาพการทํางานดังนั้นจึงมีความพยายามมากมายในการตรวจสอบสัญญาอัจฉริยะการวิเคราะห์และคาดการณ์ข้อมูลบริการส่วนบุคคลความปลอดภัยและการปกป้องความเป็นส่วนตัวเป็นต้น

3.2.1 การวิเคราะห์และคาดการณ์ข้อมูล

โครงการ Web3 จํานวนมากกําลังรวมบริการ AI ที่มีอยู่ (เช่น ChatGPT) หรือพัฒนาเองเพื่อให้บริการวิเคราะห์ข้อมูลและคาดการณ์สําหรับผู้ใช้ Web3 บริการเหล่านี้ครอบคลุมช่วงกว้างรวมถึงอัลกอริทึม AI สําหรับกลยุทธ์การลงทุนเครื่องมือวิเคราะห์แบบ on-chain และการคาดการณ์ราคาและตลาด

ตัวอย่างเช่น Pond ใช้อัลกอริธึมกราฟ AI เพื่อทํานายโทเค็นอัลฟ่าในอนาคตที่มีคุณค่า โดยให้บริการที่ปรึกษาการลงทุนแก่ผู้ใช้และสถาบันต่างๆ BullBear AI จะฝึกฝนข้อมูลในอดีตของผู้ใช้ประวัติราคาและแนวโน้มของตลาดเพื่อให้ข้อมูลที่ถูกต้องซึ่งสนับสนุนการคาดการณ์แนวโน้มราคาช่วยให้ผู้ใช้บรรลุผลกําไร

แพลตฟอร์มเช่น Numerai จัดการแข่งขันการลงทุนที่ผู้เข้าร่วมใช้ AI และแบบจําลองภาษาขนาดใหญ่เพื่อทํานายตลาดหุ้น พวกเขาฝึกโมเดลเกี่ยวกับข้อมูลคุณภาพสูงที่จัดทําโดยแพลตฟอร์มและส่งการคาดการณ์รายวัน Numerai ประเมินการคาดการณ์เหล่านี้ในเดือนถัดไป และผู้เข้าร่วมสามารถเดิมพันโทเค็น NMR โทเค็นบนโมเดลของตนเพื่อรับรางวัลตามประสิทธิภาพ

Arkham ซึ่งเป็นแพลตฟอร์มการวิเคราะห์ข้อมูลบล็อกเชนยังรวม AI เข้ากับบริการของตน Arkham เชื่อมโยงที่อยู่บล็อกเชนกับหน่วยงานต่างๆ เช่น การแลกเปลี่ยน กองทุน และปลาวาฬ โดยแสดงข้อมูลสําคัญและการวิเคราะห์เพื่อให้ผู้ใช้ได้เปรียบในการตัดสินใจ Arkham Ultra จับคู่ที่อยู่กับเอนทิตีในโลกแห่งความเป็นจริงโดยใช้อัลกอริทึมที่พัฒนาขึ้นในช่วงสามปีโดยได้รับการสนับสนุนจากผู้ก่อตั้ง Palantir และ OpenAI

3.2.2 บริการส่วนบุคคล

แอปพลิเคชัน AI ในการค้นหาและคําแนะนําเป็นที่แพร่หลายในโครงการ Web2 ซึ่งตอบสนองความต้องการส่วนบุคคลของผู้ใช้ โครงการ Web3 ในทํานองเดียวกันรวม AI เพื่อปรับปรุงประสบการณ์ของผู้ใช้

ตัวอย่างเช่นแพลตฟอร์มการวิเคราะห์ข้อมูลที่รู้จักกันดี Dune เพิ่งเปิดตัวเครื่องมือ Wand ซึ่งใช้โมเดลภาษาขนาดใหญ่ในการเขียนแบบสอบถาม SQL ด้วย Wand Create ผู้ใช้สามารถสร้างแบบสอบถาม SQL จากคําถามภาษาธรรมชาติทําให้ผู้ที่ไม่คุ้นเคยกับ SQL สามารถค้นหาข้อมูลได้อย่างง่ายดาย

แพลตฟอร์มเนื้อหาเช่น Followin รวม ChatGPT เพื่อสรุปมุมมองและการอัปเดตในภาคส่วนเฉพาะ สารานุกรม Web3 IQ.wiki มีจุดมุ่งหมายเพื่อเป็นแหล่งหลักของวัตถุประสงค์ความรู้คุณภาพสูงเกี่ยวกับเทคโนโลยีบล็อกเชนและสกุลเงินดิจิทัล มันรวม GPT-4 เพื่อสรุปบทความวิกิทําให้ข้อมูลบล็อกเชนสามารถเข้าถึงได้มากขึ้นทั่วโลก เครื่องมือค้นหาที่ใช้ LLM Kaito มีจุดมุ่งหมายเพื่อปฏิวัติการดึงข้อมูล Web3

ในโดเมนครีเอทีฟโฆษณาโครงการเช่น NFPrompt ลดต้นทุนในการสร้างเนื้อหา NFPrompt ช่วยให้ผู้ใช้สร้าง NFT ได้ง่ายขึ้นด้วย AI โดยให้บริการสร้างสรรค์ส่วนบุคคลที่หลากหลาย

3.2.3 AI Auditing Smart Contracts

การตรวจสอบสัญญาอัจฉริยะเป็นงานสําคัญใน Web3 และ AI สามารถเพิ่มประสิทธิภาพและความแม่นยําในการระบุช่องโหว่ของโค้ด

Vitalik Buterin ได้ตั้งข้อสังเกตว่าหนึ่งในความท้าทายที่ยิ่งใหญ่ที่สุดในพื้นที่ cryptocurrency คือข้อผิดพลาดในรหัสของเรา AI ให้คํามั่นสัญญาว่าจะลดความซับซ้อนของการใช้เครื่องมือตรวจสอบอย่างเป็นทางการเพื่อพิสูจน์ความถูกต้องของรหัส การบรรลุเป้าหมายนี้อาจนําไปสู่ SEK EVM (Ethereum Virtual Machine) ที่ปราศจากข้อผิดพลาดซึ่งช่วยเพิ่มความปลอดภัยในอวกาศเนื่องจากข้อผิดพลาดน้อยลงจะเพิ่มความปลอดภัยโดยรวม

ตัวอย่างเช่นโครงการ 0x0.ai เสนอผู้ตรวจสอบสัญญาอัจฉริยะที่ขับเคลื่อนด้วย AI เครื่องมือนี้ใช้อัลกอริธึมขั้นสูงเพื่อวิเคราะห์สัญญาอัจฉริยะและระบุช่องโหว่หรือปัญหาที่อาจเกิดขึ้นซึ่งอาจนําไปสู่การฉ้อโกงหรือความเสี่ยงด้านความปลอดภัยอื่น ๆ ผู้ตรวจสอบใช้แมชชีนเลิร์นนิงเพื่อตรวจจับรูปแบบและความผิดปกติในโค้ด โดยตั้งค่าสถานะปัญหาที่อาจเกิดขึ้นเพื่อตรวจสอบเพิ่มเติม

มีกรณีดั้งเดิมอื่น ๆ ที่ AI ช่วย Web3 PAAL ช่วยให้ผู้ใช้สร้างบอท AI ส่วนบุคคลที่สามารถปรับใช้บน Telegram และ Discord เพื่อให้บริการผู้ใช้ Web3 Hera ผู้รวบรวม DEX แบบหลายสายโซ่ที่ขับเคลื่อนด้วย AI ใช้ AI เพื่อมอบเส้นทางการซื้อขายที่ดีที่สุดระหว่างคู่โทเค็นใด ๆ ในโทเค็นต่างๆ โดยรวมแล้วการมีส่วนร่วมของ AI ใน Web3 นั้นอยู่ในระดับเครื่องมือเป็นหลักซึ่งช่วยปรับปรุงกระบวนการและฟังก์ชันการทํางานต่างๆ

ข้อจํากัดและความท้าทายในปัจจุบันของโครงการ AI + Web3

4.1 อุปสรรคที่สมจริงในพลังการประมวลผลแบบกระจายอํานาจ

ปัจจุบันโครงการ Web3 จํานวนมากที่ช่วยเหลือ AI กําลังมุ่งเน้นไปที่พลังการประมวลผลแบบกระจายอํานาจ การใช้สิ่งจูงใจโทเค็นเพื่อส่งเสริมผู้ใช้ทั่วโลกให้เป็นส่วนหนึ่งของด้านแหล่งจ่ายไฟคอมพิวเตอร์เป็นนวัตกรรมที่น่าสนใจมาก อย่างไรก็ตามในทางกลับกันมีปัญหาที่เป็นจริงบางอย่างที่ต้องได้รับการแก้ไข:

เมื่อเทียบกับผู้ให้บริการพลังงานการประมวลผลแบบรวมศูนย์ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมักจะพึ่งพาโหนดและผู้เข้าร่วมที่กระจายอยู่ทั่วโลกเพื่อจัดหาทรัพยากรการประมวลผล เนื่องจากเวลาแฝงที่เป็นไปได้และความไม่เสถียรในการเชื่อมต่อเครือข่ายระหว่างโหนดเหล่านี้ประสิทธิภาพและความเสถียรอาจแย่กว่าผลิตภัณฑ์พลังงานการประมวลผลแบบรวมศูนย์

นอกจากนี้ความพร้อมใช้งานของผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจได้รับผลกระทบจากระดับการจับคู่ระหว่างอุปสงค์และอุปทาน หากมีซัพพลายเออร์ไม่เพียงพอหรือหากความต้องการสูงเกินไปอาจนําไปสู่การขาดแคลนทรัพยากรหรือไม่สามารถตอบสนองความต้องการของผู้ใช้ได้

ในที่สุดเมื่อเทียบกับผลิตภัณฑ์พลังงานการประมวลผลแบบรวมศูนย์ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมักจะเกี่ยวข้องกับรายละเอียดทางเทคนิคและความซับซ้อนมากขึ้น ผู้ใช้อาจต้องเข้าใจและจัดการแง่มุมของเครือข่ายแบบกระจายสัญญาอัจฉริยะและการชําระเงินด้วยสกุลเงินดิจิทัลซึ่งจะเพิ่มค่าใช้จ่ายในการทําความเข้าใจและการใช้งานของผู้ใช้

หลังจากการหารือเชิงลึกกับทีมโครงการพลังการประมวลผลแบบกระจายอํานาจจํานวนมากพบว่าพลังการประมวลผลแบบกระจายอํานาจในปัจจุบันยังคงจํากัดอยู่ที่การอนุมาน AI มากกว่าการฝึกอบรม AI

ต่อไปฉันจะใช้คําถามสี่ข้อเพื่อช่วยให้ทุกคนเข้าใจเหตุผลที่อยู่เบื้องหลังสิ่งนี้:

  1. เหตุใดโครงการพลังการประมวลผลแบบกระจายอํานาจส่วนใหญ่จึงเลือกที่จะทําการอนุมาน AI มากกว่าการฝึกอบรม AI

  2. อะไรทําให้ NVIDIA ทรงพลัง? อะไรคือเหตุผลที่การฝึกอบรมพลังการประมวลผลแบบกระจายอํานาจเป็นเรื่องยาก?

  3. อะไรคือ endgame สําหรับพลังการประมวลผลแบบกระจายอํานาจ (Render, Akash, io.net ฯลฯ )

  4. Endgame สําหรับอัลกอริธึมแบบกระจายอํานาจ (Bittensor) จะเป็นอย่างไร

มาเจาะลึกรายละเอียดทีละขั้นตอน:

1) การสังเกตสาขานี้โครงการพลังการประมวลผลแบบกระจายอํานาจส่วนใหญ่เลือกที่จะมุ่งเน้นไปที่การอนุมาน AI มากกว่าการฝึกอบรมเนื่องจากข้อกําหนดที่แตกต่างกันสําหรับพลังการประมวลผลและแบนด์วิดท์

เพื่อช่วยให้ทุกคนเข้าใจได้ดีขึ้น มาเปรียบเทียบ AI กับนักเรียน:

  • การฝึกอบรม AI: หากเราเปรียบเทียบปัญญาประดิษฐ์กับนักเรียนการฝึกอบรมจะคล้ายกับการให้ความรู้และตัวอย่างจํานวนมากแก่ AI ซึ่งคล้ายกับสิ่งที่เรามักเรียกว่าข้อมูล AI เรียนรู้จากตัวอย่างเหล่านี้ เนื่องจากการเรียนรู้เกี่ยวข้องกับการทําความเข้าใจและจดจําข้อมูลจํานวนมหาศาลกระบวนการนี้จึงต้องใช้พลังและเวลาในการประมวลผลอย่างมาก

  • การอนุมาน AI: การอนุมานสามารถเข้าใจได้ว่าเป็นการใช้ความรู้ที่ได้รับเพื่อแก้ปัญหาหรือทําการสอบ ในระหว่างการอนุมาน AI ใช้ความรู้ที่เรียนรู้เพื่อตอบคําถามแทนที่จะได้รับข้อมูลใหม่ดังนั้นข้อกําหนดการคํานวณจึงค่อนข้างต่ํา

เป็นเรื่องง่าย

ที่จะเห็นว่าความแตกต่างพื้นฐานในความยากลําบากอยู่ที่ความจริงที่ว่าการฝึกอบรม AI โมเดลขนาดใหญ่ต้องการปริมาณข้อมูลมหาศาลและแบนด์วิดท์ที่สูงมากสําหรับการส่งข้อมูลทําให้เป็นเรื่องยากมากที่จะบรรลุด้วยพลังการประมวลผลแบบกระจายอํานาจ ในทางตรงกันข้ามการอนุมานต้องการข้อมูลและแบนด์วิดท์น้อยกว่ามากทําให้เป็นไปได้มากขึ้น

สําหรับรุ่นใหญ่ความเสถียรเป็นสิ่งสําคัญ หากการฝึกอบรมถูกขัดจังหวะจะต้องเริ่มต้นใหม่ส่งผลให้ต้นทุนจมสูง ในทางกลับกันความต้องการที่มีความต้องการพลังงานการประมวลผลที่ค่อนข้างต่ําเช่นการอนุมาน AI หรือสถานการณ์เฉพาะบางอย่างที่เกี่ยวข้องกับการฝึกอบรมโมเดลขนาดกลางถึงขนาดเล็กสามารถทําได้ ในเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจผู้ให้บริการโหนดที่ค่อนข้างใหญ่บางรายสามารถตอบสนองความต้องการพลังงานการประมวลผลที่ค่อนข้างสูงเหล่านี้ได้

2) ดังนั้นคอขวดในข้อมูลและแบนด์วิดท์อยู่ที่ไหน? เหตุใดการฝึกอบรมแบบกระจายอํานาจจึงยากที่จะบรรลุ

สิ่งนี้เกี่ยวข้องกับองค์ประกอบสําคัญสองประการของการฝึกอบรมโมเดลขนาดใหญ่: พลังการประมวลผลแบบการ์ดเดียวและการขนานแบบหลายการ์ด

พลังการประมวลผลแบบบัตรเดียว: ปัจจุบันศูนย์ทั้งหมดที่ต้องการการฝึกอบรมโมเดลขนาดใหญ่ที่เรียกว่าศูนย์ซูเปอร์คอมพิวเตอร์สามารถเปรียบเทียบกับร่างกายมนุษย์โดยที่หน่วยพื้นฐานคือ GPU เป็นเหมือนเซลล์ หากพลังการประมวลผลของเซลล์เดียว (GPU) แข็งแกร่งพลังการประมวลผลโดยรวม (เซลล์เดียว×ปริมาณ) ก็แข็งแกร่งมากเช่นกัน

ความขนานหลายการ์ด: การฝึกอบรมโมเดลขนาดใหญ่มักเกี่ยวข้องกับกิกะไบต์หลายแสนล้านกิกะไบต์ สําหรับศูนย์ซูเปอร์คอมพิวเตอร์ที่ฝึกรุ่นใหญ่จําเป็นต้องมี A100 GPU อย่างน้อยหลายหมื่นตัว สิ่งนี้จําเป็นต้องระดมการ์ดหลายพันใบเพื่อฝึกอบรม อย่างไรก็ตามการฝึกอบรมโมเดลขนาดใหญ่ไม่ใช่กระบวนการอนุกรมง่ายๆ มันไม่ได้เพียงแค่ฝึกบนการ์ด A100 ใบแรกแล้วย้ายไปที่การ์ดใบที่สอง แต่ส่วนต่าง ๆ ของโมเดลจะได้รับการฝึกอบรมเกี่ยวกับ GPU ที่แตกต่างกันพร้อมกันและส่วนการฝึกอบรม A อาจต้องการผลลัพธ์จากส่วน B ซึ่งเกี่ยวข้องกับการประมวลผลแบบขนาน

การครอบงําของ NVIDIA และมูลค่าตลาดที่เพิ่มขึ้นในขณะที่ AMD และ บริษัท ในประเทศเช่น Huawei และ Horizon พบว่ามันยากที่จะตามทันเกิดจากสองด้าน: สภาพแวดล้อมซอฟต์แวร์ CUDA และการสื่อสารหลายการ์ด NVLink

สภาพแวดล้อมซอฟต์แวร์ CUDA: มีระบบนิเวศซอฟต์แวร์ที่ตรงกับฮาร์ดแวร์หรือไม่เป็นสิ่งสําคัญเช่นระบบ CUDA ของ NVIDIA การสร้างระบบใหม่เป็นเรื่องที่ท้าทายคล้ายกับการสร้างภาษาใหม่ที่มีต้นทุนทดแทนสูง

การสื่อสารหลายการ์ด NVLink: โดยพื้นฐานแล้วการสื่อสารแบบหลายการ์ดเกี่ยวข้องกับอินพุตและเอาต์พุตของข้อมูล วิธีการขนานและส่งเป็นสิ่งสําคัญ การปรากฏตัวของ NVLink หมายความว่าการ์ด NVIDIA และ AMD ไม่สามารถสื่อสารกันได้ นอกจากนี้ NVLink ยังจํากัดระยะห่างทางกายภาพระหว่าง GPU โดยกําหนดให้อยู่ในศูนย์ซูเปอร์คอมพิวเตอร์เดียวกัน สิ่งนี้ทําให้ยากสําหรับพลังการประมวลผลแบบกระจายอํานาจที่กระจายไปทั่วโลกเพื่อสร้างคลัสเตอร์การประมวลผลที่เหนียวแน่นสําหรับการฝึกอบรมโมเดลขนาดใหญ่

ประเด็นแรกอธิบายว่าเหตุใด AMD และ บริษัท ในประเทศเช่น Huawei และ Horizon จึงต้องดิ้นรนเพื่อให้ทัน ประเด็นที่สองอธิบายว่าเหตุใดการฝึกอบรมแบบกระจายอํานาจจึงยากที่จะบรรลุ

3) อะไรคือ endgame สําหรับพลังการประมวลผลแบบกระจายอํานาจ? พลังการประมวลผลแบบกระจายอํานาจในปัจจุบันต้องต่อสู้กับการฝึกอบรมโมเดลขนาดใหญ่เนื่องจากความเสถียรเป็นสิ่งสําคัญยิ่ง การหยุดชะงักจําเป็นต้องฝึกอบรมใหม่ส่งผลให้ต้นทุนจมสูง ข้อกําหนดระดับสูงสําหรับการขนานหลายการ์ดถูก จํากัด โดยข้อ จํากัด แบนด์วิดท์ทางกายภาพ NVLink ของ NVIDIA รองรับการสื่อสารแบบหลายการ์ด แต่ภายในศูนย์ซูเปอร์คอมพิวเตอร์ NVLink จะจํากัดระยะห่างทางกายภาพระหว่าง GPU ดังนั้นพลังการประมวลผลที่กระจัดกระจายจึงไม่สามารถสร้างคลัสเตอร์คอมพิวเตอร์สําหรับการฝึกอบรมโมเดลขนาดใหญ่ได้

อย่างไรก็ตามสําหรับความต้องการที่มีความต้องการพลังงานการประมวลผลที่ค่อนข้างต่ําเช่นการอนุมาน AI หรือสถานการณ์เฉพาะบางอย่างที่เกี่ยวข้องกับการฝึกอบรมโมเดลขนาดกลางถึงขนาดเล็กเครือข่ายพลังการประมวลผลแบบกระจายอํานาจกับผู้ให้บริการโหนดที่ค่อนข้างใหญ่มีศักยภาพ นอกจากนี้สถานการณ์เช่น Edge Computing สําหรับการเรนเดอร์นั้นค่อนข้างง่ายต่อการใช้งาน

4) endgame สําหรับโมเดลอัลกอริธึมแบบกระจายอํานาจจะเป็นอย่างไร? อนาคตของโมเดลอัลกอริธึมแบบกระจายอํานาจขึ้นอยู่กับทิศทางสูงสุดของ AI ฉันเชื่อว่าอนาคตของ AI อาจมียักษ์ใหญ่โมเดลแบบปิด 1-2 ราย (เช่น ChatGPT) ควบคู่ไปกับโมเดลมากมาย ในบริบทนี้ผลิตภัณฑ์เลเยอร์แอปพลิเคชันไม่จําเป็นต้องผูกกับโมเดลขนาดใหญ่เพียงรุ่นเดียว แต่ให้ความร่วมมือกับโมเดลขนาดใหญ่หลายรุ่น ในสถานการณ์สมมตินี้ แบบจําลองของ Bittensor แสดงศักยภาพที่สําคัญ

ในโครงการปัจจุบันที่รวม Web3 และ AI โดยเฉพาะอย่างยิ่งโครงการที่ AI ช่วยความคิดริเริ่ม Web3 โครงการส่วนใหญ่ใช้ AI เพียงผิวเผินโดยไม่แสดงให้เห็นถึงการบูรณาการอย่างลึกซึ้งระหว่าง AI และ cryptocurrencies แอปพลิเคชันผิวเผินนี้เห็นได้ชัดในสองด้านต่อไปนี้:

  • ประการแรกไม่ว่าจะใช้ AI สําหรับการวิเคราะห์และคาดการณ์ข้อมูลในสถานการณ์คําแนะนําและการค้นหาหรือสําหรับการตรวจสอบโค้ดมีความแตกต่างเล็กน้อยเมื่อเทียบกับการรวม AI ในโครงการ Web2 โครงการเหล่านี้ใช้ประโยชน์จาก AI เพื่อเพิ่มประสิทธิภาพและการวิเคราะห์โดยไม่ต้องแสดงการผสมผสานแบบเนทีฟของ AI และ cryptocurrencies หรือนําเสนอโซลูชันที่เป็นนวัตกรรมใหม่
  • ประการที่สองทีม Web3 จํานวนมากรวม AI เป็นกลไกทางการตลาดมากขึ้นโดยใช้ประโยชน์จากแนวคิด AI อย่างหมดจด พวกเขาใช้เทคโนโลยี AI ในพื้นที่ จํากัด มากแล้วเริ่มส่งเสริมแนวโน้มของ AI สร้างซุ้มของการบูรณาการอย่างใกล้ชิดกับ AI อย่างไรก็ตามโครงการเหล่านี้ขาดนวัตกรรมที่สําคัญ

แม้ว่าโครงการ Web3 และ AI ในปัจจุบันจะมีข้อ จํากัด เหล่านี้ แต่เราควรตระหนักว่านี่เป็นเพียงช่วงเริ่มต้นของการพัฒนา ในอนาคตเราสามารถคาดหวังการวิจัยและนวัตกรรมเชิงลึกมากขึ้นเพื่อให้เกิดการผสานรวมที่เข้มงวดยิ่งขึ้นระหว่าง AI และ cryptocurrencies สร้างโซลูชันดั้งเดิมและมีความหมายมากขึ้นในด้านต่างๆเช่นการเงินองค์กรอิสระแบบกระจายอํานาจ (DAOs) ตลาดการคาดการณ์และ NFT

4.3 Token Economics ทําหน้าที่เป็นบัฟเฟอร์สําหรับ AI Project Narratives

ดังที่ได้กล่าวไว้ในตอนแรกโครงการ AI ต้องเผชิญกับความท้าทายในรูปแบบธุรกิจโดยเฉพาะอย่างยิ่งเมื่อโมเดลขนาดใหญ่มากขึ้นเรื่อย ๆ ค่อยๆกลายเป็นโอเพ่นซอร์ส โครงการ AI + Web3 จํานวนมากซึ่งมักจะเป็นโครงการ AI บริสุทธิ์ที่ดิ้นรนเพื่อเติบโตและรักษาความปลอดภัยในการระดมทุนในพื้นที่ Web2 เลือกที่จะซ้อนทับการเล่าเรื่องและเศรษฐศาสตร์โทเค็นจาก Web3 เพื่อส่งเสริมการมีส่วนร่วมของผู้ใช้

อย่างไรก็ตามคําถามที่สําคัญคือการรวมเศรษฐศาสตร์โทเค็นช่วยให้โครงการ AI ตอบสนองความต้องการในโลกแห่งความเป็นจริงได้อย่างแท้จริงหรือไม่หรือเป็นเพียงการเล่าเรื่องหรือการนําเสนอคุณค่าในระยะสั้น ปัจจุบันโครงการ AI + Web3 ส่วนใหญ่ยังห่างไกลจากขั้นตอนการปฏิบัติ หวังว่าทีมที่มีเหตุผลและรอบคอบมากขึ้นจะไม่เพียง แต่ใช้โทเค็นเป็นเครื่องมือในการโฆษณาโครงการ AI แต่ยังตอบสนองกรณีการใช้งานจริงอย่างแท้จริง

Summary

ปัจจุบันมีกรณีและแอปพลิเคชันจํานวนมากเกิดขึ้นในโครงการ AI + Web3 ประการแรกเทคโนโลยี AI สามารถให้กรณีการใช้งานที่มีประสิทธิภาพและชาญฉลาดยิ่งขึ้นสําหรับ Web3 ด้วยความสามารถของ AI ในการวิเคราะห์และคาดการณ์ข้อมูลผู้ใช้ใน Web3 สามารถมีเครื่องมือที่ดีกว่าสําหรับการตัดสินใจลงทุนและสถานการณ์อื่น ๆ นอกจากนี้ AI ยังสามารถตรวจสอบรหัสสัญญาอัจฉริยะเพิ่มประสิทธิภาพการดําเนินการตามสัญญาและเพิ่มประสิทธิภาพและประสิทธิภาพของบล็อกเชน นอกจากนี้เทคโนโลยี AI ยังสามารถให้คําแนะนําที่แม่นยําและชาญฉลาดยิ่งขึ้นและบริการส่วนบุคคลสําหรับแอปพลิเคชันแบบกระจายอํานาจซึ่งจะช่วยปรับปรุงประสบการณ์ของผู้ใช้

ในขณะเดียวกัน

ลักษณะการกระจายอํานาจและโปรแกรมได้ของ Web3 ยังนําเสนอโอกาสใหม่สําหรับเทคโนโลยี AI โครงการพลังการประมวลผลแบบกระจายอํานาจมอบโซลูชันใหม่ให้กับภาวะที่กลืนไม่เข้าคายไม่ออกของพลังการประมวลผล AI ไม่เพียงพอ สัญญาอัจฉริยะและกลไกการจัดเก็บข้อมูลแบบกระจายของ Web3 ยังมีพื้นที่และทรัพยากรที่กว้างขึ้นสําหรับการแบ่งปันและการฝึกอบรมอัลกอริทึม AI กลไกความเป็นอิสระและความไว้วางใจของผู้ใช้ของ Web3 ยังนํามาซึ่งความเป็นไปได้ใหม่สําหรับการพัฒนา AI ทําให้ผู้ใช้สามารถเลือกเข้าร่วมในการแบ่งปันข้อมูลและการฝึกอบรมได้อย่างอิสระซึ่งจะช่วยเพิ่มความหลากหลายและคุณภาพของข้อมูลและปรับปรุงประสิทธิภาพและความแม่นยําของโมเดล AI ต่อไป

แม้ว่าโครงการครอสโอเวอร์ AI + Web3 ในปัจจุบันจะยังอยู่ในช่วงเริ่มต้นและเผชิญกับความท้าทายมากมาย แต่ก็นํามาซึ่งข้อดีหลายประการ ตัวอย่างเช่นผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมีข้อบกพร่องบางประการ แต่ลดการพึ่งพาสถาบันแบบรวมศูนย์ให้ความโปร่งใสและการตรวจสอบที่มากขึ้นและเปิดใช้งานการมีส่วนร่วมและนวัตกรรมที่กว้างขึ้น สําหรับกรณีการใช้งานเฉพาะและความต้องการของผู้ใช้ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจอาจเป็นตัวเลือกที่มีค่า เช่นเดียวกับการรวบรวมข้อมูล โครงการรวบรวมข้อมูลแบบกระจายอํานาจมีข้อได้เปรียบเช่นการลดการพึ่งพาแหล่งข้อมูลเดียวให้ความครอบคลุมข้อมูลที่กว้างขึ้นและส่งเสริมความหลากหลายและการรวมข้อมูล ในทางปฏิบัติจําเป็นต้องสร้างสมดุลระหว่างข้อดีและข้อเสียเหล่านี้และใช้มาตรการการจัดการและทางเทคนิคที่เหมาะสมเพื่อเอาชนะความท้าทายเพื่อให้แน่ใจว่าโครงการรวบรวมข้อมูลแบบกระจายอํานาจมีผลกระทบเชิงบวกต่อการพัฒนา AI

โดยรวมแล้วการรวม AI + Web3 มอบความเป็นไปได้ที่ไม่มีที่สิ้นสุดสําหรับนวัตกรรมทางเทคโนโลยีในอนาคตและการพัฒนาเศรษฐกิจ ด้วยการรวมการวิเคราะห์อัจฉริยะและความสามารถในการตัดสินใจของ AI เข้ากับลักษณะการกระจายอํานาจและผู้ใช้อิสระของ Web3 เชื่อว่าเราสามารถสร้างระบบเศรษฐกิจและสังคมที่ชาญฉลาดเปิดกว้างและเป็นธรรมมากขึ้น

ข้อจํากัดความรับผิดชอบ:

  1. บทความนี้พิมพ์ซ้ําจาก [Ryze Labs] ลิขสิทธิ์ทั้งหมดเป็นของผู้เขียนต้นฉบับ [Fred] หากมีการคัดค้านการพิมพ์ซ้ํานี้ โปรดติดต่อทีม Gate Learn และพวกเขาจะจัดการทันที
  2. ข้อจํากัดความรับผิดชอบความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนและไม่ถือเป็นคําแนะนําการลงทุนใด ๆ
  3. การแปลบทความเป็นภาษาอื่นทําโดยทีม Gate Learn ห้ามคัดลอก แจกจ่าย หรือลอกเลียนแบบบทความที่แปล
แล้ว เว้นแต่จะกล่าวถึง

การวิเคราะห์เชิงลึก: AI และ Web3 สามารถสร้างประกายไฟประเภทใดได้บ้าง

ขั้นสูงJun 07, 2024
บทความนี้สํารวจการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ (AI) และ Web3 และคุณค่าและผลกระทบที่อาจเกิดขึ้นจากการรวมเข้าด้วยกัน AI เป็นเลิศในการเพิ่มประสิทธิภาพการทํางานในขณะที่ Web3 เปลี่ยนความสัมพันธ์ด้านการผลิตผ่านการกระจายอํานาจ การรวมกันของเทคโนโลยีเหล่านี้นํามาซึ่งแอปพลิเคชันที่เป็นนวัตกรรมใหม่ในการวิเคราะห์ข้อมูลบริการผู้ใช้ส่วนบุคคลและความปลอดภัยและการปกป้องความเป็นส่วนตัว
การวิเคราะห์เชิงลึก: AI และ Web3 สามารถสร้างประกายไฟประเภทใดได้บ้าง

บทนํา: การพัฒนา AI+Web3

ในช่วงไม่กี่ปีที่ผ่านมาการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) และเทคโนโลยี Web3 ได้รับความสนใจอย่างกว้างขวางทั่วโลก AI ซึ่งเป็นเทคโนโลยีที่จําลองและเลียนแบบความฉลาดของมนุษย์ได้บรรลุความก้าวหน้าที่สําคัญในสาขาต่างๆเช่นการจดจําใบหน้าการประมวลผลภาษาธรรมชาติและการเรียนรู้ของเครื่อง ความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI ทําให้เกิดการเปลี่ยนแปลงและนวัตกรรมอย่างมากในอุตสาหกรรมต่างๆ

อุตสาหกรรม AI มีขนาดตลาดถึง 200 พันล้านดอลลาร์ในปี 2023 โดยมียักษ์ใหญ่ในอุตสาหกรรมและผู้เล่นที่โดดเด่นเช่น OpenAI, Character.AI และ Midjourney เกิดขึ้นอย่างรวดเร็วและเป็นผู้นําในการเติบโตของ AI

ในขณะเดียวกัน Web3 ซึ่งเป็นรูปแบบอินเทอร์เน็ตที่เกิดขึ้นใหม่กําลังค่อยๆเปลี่ยนการรับรู้และการใช้อินเทอร์เน็ตของเรา ด้วยเทคโนโลยีบล็อกเชนแบบกระจายอํานาจ Web3 ตระหนักถึงการแบ่งปันข้อมูลและการควบคุมความเป็นอิสระของผู้ใช้และการสร้างกลไกความไว้วางใจผ่านคุณสมบัติต่างๆเช่นสัญญาอัจฉริยะการจัดเก็บแบบกระจายและการยืนยันตัวตนแบบกระจายอํานาจ แนวคิดหลักของ Web3 คือการปลดปล่อยข้อมูลจากหน่วยงานส่วนกลางทําให้ผู้ใช้สามารถควบคุมและแบ่งปันคุณค่าของข้อมูลของตนได้

ปัจจุบันมูลค่าตลาดของอุตสาหกรรม Web3 สูงถึง 25 ล้านล้านดอลลาร์ ตั้งแต่ Bitcoin, Ethereum และ Solana ไปจนถึงผู้เล่นระดับแอปพลิเคชันเช่น Uniswap และ Stepn การเล่าเรื่องและสถานการณ์ใหม่ ๆ กําลังเกิดขึ้นอย่างต่อเนื่องดึงดูดผู้คนให้เข้าร่วมอุตสาหกรรม Web3 มากขึ้นเรื่อย

เห็นได้ชัดว่าการรวม AI และ Web3 เป็นจุดโฟกัสสําหรับผู้สร้างและผู้ร่วมทุนจากทั้งตะวันออกและตะวันตก การสํารวจวิธีการรวมเทคโนโลยีทั้งสองนี้เข้าด้วยกันอย่างมีประสิทธิภาพเป็นความพยายามที่คุ้มค่าอย่างมาก

บทความนี้จะมุ่งเน้นไปที่สถานะปัจจุบันของการพัฒนา AI+Web3 สํารวจคุณค่าที่อาจเกิดขึ้นและผลกระทบของการรวมระบบ ก่อนอื่นเราจะแนะนําแนวคิดพื้นฐานและลักษณะของ AI และ Web3 จากนั้นหารือเกี่ยวกับความสัมพันธ์ของพวกเขา หลังจากนี้เราจะวิเคราะห์สถานะปัจจุบันของโครงการ AI + Web3 และเจาะลึกข้อ จํากัด และความท้าทายที่พวกเขาเผชิญ ด้วยการวิจัยนี้เรามุ่งมั่นที่จะให้ข้อมูลอ้างอิงและข้อมูลเชิงลึกที่มีคุณค่าสําหรับนักลงทุนและผู้เชี่ยวชาญในอุตสาหกรรม

วิธีที่ AI โต้ตอบกับ Web3

การพัฒนา AI และ Web3 สามารถเห็นได้ว่าเป็นสองด้านของมาตราส่วน: AI นําการปรับปรุงประสิทธิภาพการทํางานในขณะที่ Web3 ปฏิวัติความสัมพันธ์ในการผลิต ดังนั้น AI และ Web3 สามารถสร้างประกายไฟชนิดใดได้บ้างเมื่อชนกัน ก่อนอื่นเราจะวิเคราะห์ความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม AI และ Web3 จากนั้นสํารวจว่าพวกเขาสามารถช่วยแก้ปัญหาของกันและกันได้อย่างไร

  1. ความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในความท้าทายของอุตสาหกรรม AI
  2. และการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม Web3

2.1 ความท้าทายในอุตสาหกรรม AI

ในการสํารวจความท้าทายที่อุตสาหกรรม AI ต้องเผชิญเราต้องเข้าใจสาระสําคัญของมันก่อน แกนหลักของอุตสาหกรรม AI หมุนรอบองค์ประกอบหลักสามประการ: พลังการคํานวณอัลกอริทึมและข้อมูล

  1. ประการแรกพลังการคํานวณ: พลังการคํานวณหมายถึงความสามารถในการคํานวณและการประมวลผลขนาดใหญ่ งาน AI มักต้องการการจัดการข้อมูลจํานวนมากและดําเนินการคํานวณที่ซับซ้อน เช่น การฝึกอบรมโมเดลเครือข่ายประสาทเทียมเชิงลึก พลังการคํานวณสูงสามารถเร่งการฝึกอบรมแบบจําลองและกระบวนการอนุมานเพิ่มประสิทธิภาพและประสิทธิภาพของระบบ AI ในช่วงไม่กี่ปีที่ผ่านมาความก้าวหน้าทางเทคโนโลยีฮาร์ดแวร์เช่นหน่วยประมวลผลกราฟิก (GPU) และชิป AI เฉพาะ (เช่น TPUs) ได้เพิ่มพลังการคํานวณอย่างมีนัยสําคัญขับเคลื่อนการพัฒนาอุตสาหกรรม AI Nvidia ซึ่งเป็นผู้ให้บริการ GPU รายใหญ่ได้เห็นราคาหุ้นพุ่งสูงขึ้นในช่วงไม่กี่ปีที่ผ่านมาโดยจับส่วนแบ่งการตลาดขนาดใหญ่และได้รับผลกําไรจํานวนมาก
  2. อัลกอริทึมคืออะไร: อัลกอริทึมเป็นองค์ประกอบหลักของระบบ AI พวกเขาเป็นวิธีการทางคณิตศาสตร์และสถิติที่ใช้ในการแก้ปัญหาและทํางาน อัลกอริธึม AI สามารถแบ่งออกเป็นอัลกอริธึมแมชชีนเลิร์นนิ่งแบบดั้งเดิมและอัลกอริธึมการเรียนรู้เชิงลึก โดยอัลกอริธึมการเรียนรู้เชิงลึกได้สร้างความก้าวหน้าอย่างมากในช่วงไม่กี่ปีที่ผ่านมา ทางเลือกและการออกแบบอัลกอริธึมมีความสําคัญต่อประสิทธิภาพและประสิทธิผลของระบบ AI การปรับปรุงอย่างต่อเนื่องและนวัตกรรมในอัลกอริทึมสามารถเพิ่มความแม่นยําความทนทานและความสามารถทั่วไปของระบบ AI อัลกอริธึมที่แตกต่างกันให้ผลลัพธ์ที่แตกต่างกันดังนั้นความก้าวหน้าในอัลกอริทึมจึงเป็นสิ่งจําเป็นสําหรับประสิทธิภาพของงาน
  3. เหตุใดข้อมูลจึงมีความสําคัญ: งานหลักของระบบ AI คือการดึงรูปแบบและกฎจากข้อมูลผ่านการเรียนรู้และการฝึกอบรม ข้อมูลเป็นรากฐานสําหรับการฝึกอบรมและการเพิ่มประสิทธิภาพโมเดล ด้วยตัวอย่างข้อมูลขนาดใหญ่ระบบ AI สามารถเรียนรู้โมเดลที่แม่นยําและชาญฉลาดยิ่งขึ้น ชุดข้อมูลที่หลากหลายให้ข้อมูลที่ครอบคลุมและหลากหลายทําให้โมเดลสามารถสรุปข้อมูลที่มองไม่เห็นได้ดีขึ้นและช่วยให้ระบบ AI เข้าใจและแก้ปัญหาในโลกแห่งความเป็นจริงได้ดีขึ้น

หลังจากทําความเข้าใจองค์ประกอบหลักสามประการของ AI ในปัจจุบันแล้วเรามาตรวจสอบความยากลําบากและความท้าทายที่ AI เผชิญในพื้นที่เหล่านี้

ประการแรกในแง่ของพลังการคํานวณงาน AI มักจะต้องใช้ทรัพยากรการคํานวณจํานวนมากสําหรับการฝึกอบรมแบบจําลองและการอนุมานโดยเฉพาะอย่างยิ่งสําหรับโมเดลการเรียนรู้เชิงลึก อย่างไรก็ตามการได้รับและจัดการพลังการคํานวณขนาดใหญ่เป็นความท้าทายที่มีราคาแพงและซับซ้อน ค่าใช้จ่ายการใช้พลังงานและการบํารุงรักษาอุปกรณ์คอมพิวเตอร์ประสิทธิภาพสูงเป็นปัญหาสําคัญ นี่เป็นความท้าทายอย่างยิ่งสําหรับสตาร์ทอัพและนักพัฒนารายบุคคลซึ่งการได้รับพลังการคํานวณที่เพียงพออาจเป็นเรื่องยาก

ในแง่ของอัลกอริทึมแม้จะมีความสําเร็จอย่างมีนัยสําคัญของอัลกอริธึมการเรียนรู้เชิงลึกในหลายสาขา แต่ก็ยังมีความท้าทายและความยากลําบาก ตัวอย่างเช่นการฝึกอบรมเครือข่ายประสาทเทียมลึกต้องใช้ข้อมูลและทรัพยากรการคํานวณจํานวนมาก นอกจากนี้สําหรับงานบางอย่างความสามารถในการตีความและอธิบายแบบจําลองอาจไม่เพียงพอ ความทนทานและความสามารถทั่วไปของอัลกอริธึมก็เป็นปัญหาสําคัญเช่นกัน เนื่องจากประสิทธิภาพของโมเดลบนข้อมูลที่มองไม่เห็นอาจไม่เสถียร การค้นหาอัลกอริธึมที่ดีที่สุดเพื่อให้ประสิทธิภาพสูงสุดในบรรดาอัลกอริทึมจํานวนมากคือการสํารวจอย่างต่อเนื่อง

ในแง่ของข้อมูลข้อมูลเป็นแรงผลักดันที่อยู่เบื้องหลัง AI แต่การได้รับข้อมูลที่มีคุณภาพสูงและหลากหลายยังคงเป็นความท้าทาย ข้อมูลในบางสาขาเช่นข้อมูลสุขภาพที่ละเอียดอ่อนในภาคการแพทย์อาจเป็นเรื่องยากที่จะได้รับ นอกจากนี้คุณภาพความถูกต้องและการติดฉลากข้อมูลเป็นปัญหาสําคัญเนื่องจากข้อมูลที่ไม่สมบูรณ์หรือมีอคติอาจนําไปสู่พฤติกรรมหรืออคติของแบบจําลองที่ผิดพลาด การปกป้องความเป็นส่วนตัวและความปลอดภัยของข้อมูลก็เป็นข้อพิจารณาที่สําคัญเช่นกัน

นอกจากนี้ยังมีประเด็นที่เกี่ยวข้องกับการตีความและความโปร่งใส ลักษณะ "กล่องดํา" ของโมเดล AI เป็นข้อกังวลของสาธารณชน ในแอปพลิเคชันบางอย่างเช่นการเงินการดูแลสุขภาพและความยุติธรรมกระบวนการตัดสินใจของแบบจําลองจะต้องสามารถตีความและตรวจสอบย้อนกลับได้ อย่างไรก็ตาม โมเดลการเรียนรู้เชิงลึกที่มีอยู่มักขาดความโปร่งใส การอธิบายกระบวนการตัดสินใจของแบบจําลองและการให้คําอธิบายที่เชื่อถือได้ยังคงเป็นเรื่องที่ท้าทาย

นอกจากนี้รูปแบบธุรกิจของโครงการสตาร์ทอัพ AI จํานวนมากยังไม่ชัดเจนซึ่งทําให้เกิดความสับสนสําหรับผู้ประกอบการ AI จํานวนมาก

2.2 ความท้าทายในอุตสาหกรรม

Web3 ในอุตสาหกรรม Web3 มีความท้าทายมากมายที่ต้องได้รับการแก้ไขตั้งแต่การวิเคราะห์ข้อมูลและประสบการณ์ของผู้ใช้ไปจนถึงช่องโหว่ของสัญญาอัจฉริยะและการโจมตีของแฮ็กเกอร์ AI เป็นเครื่องมือในการเพิ่มผลผลิตมีศักยภาพที่สําคัญในด้านเหล่านี้

ประการแรกมีพื้นที่สําหรับการปรับปรุงการวิเคราะห์ข้อมูลและความสามารถในการคาดการณ์ แอปพลิเคชัน AI ในการวิเคราะห์และคาดการณ์ข้อมูลมีผลกระทบอย่างมากต่ออุตสาหกรรม Web3 ด้วยการวิเคราะห์และการขุดอัจฉริยะโดยอัลกอริธึม AI แพลตฟอร์ม Web3 สามารถดึงข้อมูลที่มีค่าจากข้อมูลจํานวนมหาศาลและทําการคาดการณ์และการตัดสินใจที่แม่นยํายิ่งขึ้น สิ่งนี้มีความสําคัญอย่างยิ่งสําหรับการประเมินความเสี่ยงการคาดการณ์ตลาดและการจัดการสินทรัพย์ในการเงินแบบกระจายอํานาจ (DeFi)

นอกจากนี้ยังมีศักยภาพในการปรับปรุงประสบการณ์ของผู้ใช้และบริการส่วนบุคคล แอปพลิเคชัน AI ช่วยให้แพลตฟอร์ม Web3 สามารถมอบประสบการณ์การใช้งานที่ดีขึ้นและบริการส่วนบุคคล ด้วยการวิเคราะห์และสร้างแบบจําลองข้อมูลผู้ใช้แพลตฟอร์ม Web3 สามารถให้คําแนะนําส่วนบุคคลบริการที่กําหนดเองและประสบการณ์การโต้ตอบอัจฉริยะ สิ่งนี้ช่วยเพิ่มการมีส่วนร่วมและความพึงพอใจของผู้ใช้ส่งเสริมการพัฒนาระบบนิเวศ Web3 ตัวอย่างเช่นโปรโตคอล Web3 จํานวนมากรวมเครื่องมือ AI เช่น ChatGPT เพื่อให้บริการผู้ใช้ได้ดียิ่งขึ้น

ในแง่ของความปลอดภัยและการปกป้องความเป็นส่วนตัวแอปพลิเคชัน AI ยังมีผลกระทบอย่างลึกซึ้งต่ออุตสาหกรรม Web3 เทคโนโลยี AI สามารถใช้เพื่อตรวจจับและป้องกันการโจมตีเครือข่ายระบุพฤติกรรมที่ผิดปกติและให้มาตรการรักษาความปลอดภัยที่แข็งแกร่งขึ้น นอกจากนี้ AI ยังสามารถนําไปใช้กับการปกป้องความเป็นส่วนตัวของข้อมูลปกป้องข้อมูลส่วนบุคคลของผู้ใช้บนแพลตฟอร์ม Web3 ผ่านเทคนิคต่างๆเช่นการเข้ารหัสข้อมูลและการประมวลผลความเป็นส่วนตัว เกี่ยวกับการตรวจสอบสัญญาอัจฉริยะเนื่องจากช่องโหว่และความเสี่ยงด้านความปลอดภัยอาจมีอยู่ในกระบวนการเขียนและตรวจสอบของสัญญาอัจฉริยะเทคโนโลยี AI สามารถใช้สําหรับการตรวจสอบสัญญาอัตโนมัติและการตรวจจับช่องโหว่เพิ่มความปลอดภัยและความน่าเชื่อถือของสัญญา

เห็นได้ชัดว่า AI สามารถมีส่วนสําคัญในการจัดการกับความท้าทายและการปรับปรุงที่อาจเกิดขึ้นในอุตสาหกรรม Web3 ในด้านต่างๆ

การวิเคราะห์สถานการณ์ปัจจุบันของโครงการ AI+Web3

การรวมโครงการ AI และ Web3 มุ่งเน้นไปที่สองประเด็นหลัก: การใช้ประโยชน์จากเทคโนโลยีบล็อกเชนเพื่อปรับปรุงโครงการ AI และการใช้เทคโนโลยี AI เพื่อรองรับการปรับปรุงโครงการ Web3 โครงการจํานวนมากได้เกิดขึ้นตามเส้นทางนี้รวมถึง Io.net, Gensyn, Ritual และอื่น ๆ การวิเคราะห์ต่อไปนี้จะเจาะลึกโดเมนย่อยต่างๆ ที่ AI ช่วย Web3 และที่ Web3 ปรับปรุง AI

3.1 Web3 ช่วยให้ AI

3.1.1 พลังการประมวลผลแบบกระจายอํานาจ

นับตั้งแต่เปิดตัว ChatGPT โดย OpenAI เมื่อปลายปี 2022 มันจุดประกายความคลั่งไคล้ในสาขา AI ภายในห้าวันหลังจากการเปิดตัวฐานผู้ใช้ถึงหนึ่งล้านคนซึ่งเกินอัตราการดาวน์โหลดของ Instagram ซึ่งใช้เวลาประมาณสองเดือนครึ่งกว่าจะบรรลุเป้าหมายเดียวกัน ต่อจากนั้น ChatGPT มีการเติบโตอย่างรวดเร็วโดยมีผู้ใช้งานรายเดือนถึง 100 ล้านคนภายในสองเดือนและผู้ใช้งานรายสัปดาห์ถึง 100 ล้านคนภายในเดือนพฤศจิกายน 2023 ด้วยการถือกําเนิดของ ChatGPT ภาค AI ได้เปลี่ยนจากสาขาเฉพาะกลุ่มไปสู่อุตสาหกรรมที่ได้รับการยอมรับอย่างสูงอย่างรวดเร็ว

ตามรายงานของ Trendforce ChatGPT ต้องการ NVIDIA A100 GPU 30,000 ตัวในการทํางาน และรุ่นในอนาคตเช่น GPT-5 จะต้องใช้พลังในการคํานวณมากยิ่งขึ้น สิ่งนี้ได้จุดประกายการแข่งขันด้านอาวุธในหมู่ บริษัท AI ต่างๆ เนื่องจากการมีพลังการคํานวณที่เพียงพอเป็นสิ่งสําคัญสําหรับการรักษาความได้เปรียบในการแข่งขันในเวที AI ซึ่งนําไปสู่การขาดแคลน GPU

ก่อนที่จะมีการเพิ่มขึ้นของ AI ผู้ให้บริการ GPU รายใหญ่ NVIDIA ให้บริการลูกค้าเป็นหลักจากบริการคลาวด์หลักสามแห่ง ได้แก่ AWS, Azure และ GCP ด้วยการเพิ่มขึ้นของปัญญาประดิษฐ์ผู้ซื้อรายใหม่จํานวนมากเกิดขึ้นรวมถึง บริษัท เทคโนโลยีรายใหญ่เช่น Meta, Oracle รวมถึงแพลตฟอร์มข้อมูลอื่น ๆ และสตาร์ทอัพ AI ทั้งหมดเข้าร่วมการแข่งขันเพื่อกักตุน GPU สําหรับการฝึกอบรมโมเดล AI บริษัทเทคโนโลยีขนาดใหญ่เช่น Meta และ Tesla เพิ่มการซื้อโมเดล AI ที่กําหนดเองและการวิจัยภายในอย่างมีนัยสําคัญ บริษัทโมเดลพื้นฐานเช่น Anthropic และแพลตฟอร์มข้อมูลเช่น Snowflake และ Databricks ยังซื้อ GPU เพิ่มเติมเพื่อช่วยเหลือลูกค้าในการให้บริการ AI

ดังที่ได้กล่าวไว้โดย Semi Analysis เมื่อปีที่แล้ว มีการแบ่งระหว่าง บริษัท "GPU rich" และ "GPU poor" โดยมีเพียงไม่กี่แห่งที่มี GPU A100/H100 มากกว่า 20,000 ตัว ทําให้สมาชิกในทีมสามารถใช้ GPU ระหว่าง 100 ถึง 1,000 ตัวสําหรับโครงการได้ บริษัทเหล่านี้เป็นผู้ให้บริการคลาวด์หรือสร้างโมเดลภาษาขนาดใหญ่ (LLMs) ของตนเอง รวมถึง OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral เป็นต้น

อย่างไรก็ตาม บริษัท ส่วนใหญ่ตกอยู่ในหมวดหมู่" GPU ที่ไม่ดี" ดิ้นรนกับ GPU น้อยลงอย่างมีนัยสําคัญและใช้เวลาและความพยายามอย่างมากในงานที่ยากต่อการพัฒนาระบบนิเวศ ยิ่งไปกว่านั้นสถานการณ์นี้ไม่ได้ จํากัด เฉพาะสตาร์ทอัพ บริษัท AI ที่มีชื่อเสียงที่สุดบางแห่งเช่น Hugging Face, Databricks (MosaicML), Together และแม้แต่ Snowflake มีปริมาณ A100 / H100 น้อยกว่า 20,000 แม้จะมีความสามารถด้านเทคนิคระดับโลก แต่ บริษัท เหล่านี้ก็ถูก จํากัด ด้วยการจัดหา GPU ที่ จํากัด ทําให้พวกเขาเสียเปรียบเมื่อเทียบกับ บริษัท ขนาดใหญ่ในการแข่งขัน AI

การขาดแคลนนี้ไม่ได้ จํากัด เฉพาะหมวดหมู่ "GPU ที่ไม่ดี" แม้ภายในสิ้นปี 2023 ผู้เล่น AI ชั้นนํา OpenAI ต้องปิดการลงทะเบียนแบบชําระเงินชั่วคราวเนื่องจากไม่สามารถรับ GPU ที่เพียงพอและต้องจัดหาอุปกรณ์ GPU เพิ่มเติม

เห็นได้ชัดว่าการพัฒนาอย่างรวดเร็วของ AI ได้นําไปสู่ความไม่ตรงกันอย่างรุนแรงระหว่างอุปสงค์และอุปทานของ GPU ทําให้เกิดการขาดแคลนอุปทานที่ใกล้เข้ามา

เพื่อแก้ไขปัญหานี้บางโครงการ Web3 ได้เริ่มสํารวจโซลูชันพลังงานการประมวลผลแบบกระจายอํานาจโดยใช้ประโยชน์จากลักษณะเฉพาะของเทคโนโลยี Web3 โครงการเหล่านี้รวมถึง Akash, Render, Gensyn และอื่น ๆ คุณลักษณะทั่วไปของโครงการเหล่านี้คือการใช้โทเค็นเพื่อจูงใจผู้ใช้ให้พลังการประมวลผล GPU ที่ไม่ได้ใช้งานจึงกลายเป็นด้านอุปทานของพลังการประมวลผลเพื่อสนับสนุนไคลเอนต์ AI

โปรไฟล์ด้านอุปทานส่วนใหญ่ประกอบด้วยสามด้าน: ผู้ให้บริการคลาวด์นักขุดสกุลเงินดิจิทัลและองค์กร ผู้ให้บริการระบบคลาวด์ประกอบด้วยผู้ให้บริการระบบคลาวด์รายใหญ่ (เช่น AWS, Azure, GCP) และผู้ให้บริการระบบคลาวด์ GPU (เช่น Coreweave, Lambda, Crusoe) ซึ่งผู้ใช้สามารถขายพลังการประมวลผลที่ไม่ได้ใช้งานจากผู้ให้บริการเหล่านี้เพื่อสร้างรายได้ ด้วย Ethereum ที่เปลี่ยนจาก PoW เป็น PoS พลังการประมวลผล GPU ที่ไม่ได้ใช้งานได้กลายเป็นด้านอุปทานที่สําคัญสําหรับนักขุดสกุลเงินดิจิทัล นอกจากนี้องค์กรขนาดใหญ่เช่น Tesla และ Meta ซึ่งซื้อ GPU จํานวนมากเพื่อวัตถุประสงค์เชิงกลยุทธ์ยังสามารถมีส่วนร่วมในพลังการประมวลผล GPU ที่ไม่ได้ใช้งานซึ่งเป็นส่วนหนึ่งของด้านอุปทาน

ปัจจุบันผู้เล่นในสาขานี้โดยทั่วไปสามารถแบ่งออกเป็นสองประเภท: ผู้ที่ใช้พลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI และผู้ที่ใช้สําหรับการฝึกอบรม AI หมวดหมู่เดิมรวมถึงโครงการเช่น Render (แม้ว่าจะเน้นการเรนเดอร์ แต่ก็สามารถใช้สําหรับการประมวลผล AI), Akash, Aethir ในขณะที่หมวดหมู่หลังรวมถึงโครงการเช่น io.net (สนับสนุนทั้งการอนุมานและการฝึกอบรม) และ Gensyn ความแตกต่างที่สําคัญระหว่างทั้งสองอยู่ในข้อกําหนดที่แตกต่างกันสําหรับพลังการประมวลผล

ก่อนอื่นเรามาพูดถึงโครงการที่เน้นการอนุมาน AI กันก่อน โครงการเหล่านี้ดึงดูดผู้ใช้ให้มอบพลังการประมวลผลผ่านสิ่งจูงใจโทเค็นจากนั้นให้บริการเครือข่ายพลังงานคอมพิวเตอร์ไปยังด้านอุปสงค์ซึ่งจะช่วยอํานวยความสะดวกในการจับคู่แหล่งจ่ายไฟและอุปสงค์ที่ไม่ได้ใช้งาน รายละเอียดเกี่ยวกับโครงการดังกล่าวครอบคลุมอยู่ในรายงานการวิจัยโดย DePIN จาก Ryze Labs ของเรา อย่าลังเลที่จะอ่าน

จุดหลักอยู่ในกลไกแรงจูงใจโทเค็นซึ่งโครงการจะดึงดูดซัพพลายเออร์และผู้ใช้ก่อนจึงบรรลุการเริ่มต้นเย็นและกลไกการดําเนินงานหลักของโครงการทําให้สามารถขยายและพัฒนาต่อไปได้ ในรอบนี้ด้านอุปทานจะได้รับรางวัลโทเค็นที่มีค่ามากขึ้นในขณะที่ด้านอุปสงค์เพลิดเพลินกับบริการที่คุ้มค่ากว่า มูลค่าของโทเค็นของโครงการและการเติบโตของผู้เข้าร่วมทั้งอุปสงค์และอุปทานยังคงสอดคล้องกัน เมื่อราคาโทเค็นเพิ่มขึ้นผู้เข้าร่วมและนักเก็งกําไรจํานวนมากขึ้นจะถูกดึงดูดทําให้เกิดลูปการจับมูลค่า

อีกหมวดหมู่หนึ่งเกี่ยวข้องกับการใช้พลังการประมวลผลแบบกระจายอํานาจสําหรับการฝึกอบรม AI เช่น Gensyn และ io.net (ซึ่งรองรับทั้งการฝึกอบรม AI และการอนุมาน) ในความเป็นจริงตรรกะการดําเนินงานของโครงการเหล่านี้ไม่ได้แตกต่างจากโครงการอนุมาน AI โดยพื้นฐาน พวกเขายังคงพึ่งพาสิ่งจูงใจโทเค็นเพื่อดึงดูดการมีส่วนร่วมจากด้านอุปทานเพื่อให้พลังการประมวลผลซึ่งจะถูกใช้โดยด้านอุปสงค์

ปัจจุบัน io.net ในฐานะเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจปัจจุบันมี GPU มากกว่า 500,000 ตัวทําให้เป็นนักแสดงที่โดดเด่นในโครงการพลังงานการประมวลผลแบบกระจายอํานาจ นอกจากนี้ยังได้รวมพลังการประมวลผลจาก Render และ Filecoin ซึ่งแสดงให้เห็นถึงการพัฒนาระบบนิเวศอย่างต่อเนื่อง

นอกจากนี้ Gensyn ยังอํานวยความสะดวกในการจัดสรรงานแมชชีนเลิร์นนิ่งและให้รางวัลผ่านสัญญาอัจฉริยะเพื่อเปิดใช้งานการฝึกอบรม AI ดังที่แสดงในแผนภาพด้านล่าง ค่าใช้จ่ายรายชั่วโมงของงานฝึกอบรมแมชชีนเลิร์นนิ่งใน Gensyn อยู่ที่ประมาณ 0.4 USD ซึ่งต่ํากว่าค่าใช้จ่ายมากกว่า 2 USD สําหรับ AWS และ GCP อย่างมาก

ระบบนิเวศ Gensyn เกี่ยวข้องกับสี่เอนทิตีที่เข้าร่วม:

  • ผู้ส่ง: นี่คือผู้ใช้ด้านอุปสงค์ที่ใช้งานและจ่ายเงินสําหรับงานฝึกอบรม AI
  • ผู้ดําเนินการ: ผู้ดําเนินการดําเนินงานของการฝึกอบรมแบบจําลองและให้หลักฐานความสําเร็จของงานสําหรับการตรวจสอบ
  • ผู้ตรวจสอบ: ผู้ตรวจสอบเชื่อมต่อกระบวนการฝึกอบรมแบบไม่กําหนดกับการคํานวณเชิงเส้นที่กําหนด พวกเขาเปรียบเทียบหลักฐานที่ได้รับจากผู้ดําเนินการกับเกณฑ์ที่คาดหวัง
  • ผู้สื่อข่าว: ผู้สื่อข่าวตรวจสอบการทํางานของผู้ตรวจสอบและท้าทายเพื่อรับรางวัลเมื่อระบุปัญหา

อย่างที่เราเห็น Gensyn ตั้งเป้าที่จะเป็นโปรโตคอลการประมวลผลที่ปรับขนาดได้และคุ้มค่าสําหรับโมเดลการเรียนรู้เชิงลึกทั่วโลก อย่างไรก็ตามเมื่อมองไปที่สาขานี้เหตุใดโครงการส่วนใหญ่จึงเลือกพลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI มากกว่าการฝึกอบรม

มาช่วยเพื่อนที่ไม่คุ้นเคยกับการฝึกอบรมและการอนุมาน AI เข้าใจความแตกต่างระหว่างทั้งสอง:

  • การฝึกอบรม AI: หากเราเปรียบปัญญาประดิษฐ์กับนักเรียนการฝึกอบรมจะคล้ายกับการให้ความรู้และตัวอย่างจํานวนมากแก่ AI ซึ่งสามารถเข้าใจได้ว่าเป็นข้อมูล AI เรียนรู้จากตัวอย่างเหล่านี้ เนื่องจากการเรียนรู้เกี่ยวข้องกับการทําความเข้าใจและจดจําข้อมูลจํานวนมากกระบวนการนี้จึงต้องใช้พลังและเวลาในการคํานวณจํานวนมาก
  • AI Inference: แล้วการอนุมานคืออะไร? สามารถเข้าใจได้ว่าเป็นการใช้ความรู้ที่เรียนรู้เพื่อแก้ปัญหาหรือสอบ ในระหว่างการอนุมานปัญญาประดิษฐ์ใช้ความรู้ที่เรียนรู้เพื่อให้คําตอบแทนที่จะได้รับความรู้ใหม่ ดังนั้นข้อกําหนดการคํานวณสําหรับกระบวนการอนุมานจึงค่อนข้างเล็ก
จะเห็น

ได้ว่าความต้องการพลังการคํานวณสําหรับทั้งการอนุมาน AI และการฝึกอบรม AI แตกต่างกันอย่างมีนัยสําคัญ ความพร้อมใช้งานของพลังการประมวลผลแบบกระจายอํานาจสําหรับการอนุมาน AI และการฝึกอบรม AI จะได้รับการวิเคราะห์เพิ่มเติมในส่วนความท้าทายที่จะเกิดขึ้น

นอกจากนี้ Ritual ยังมีจุดมุ่งหมายเพื่อรวมเครือข่ายแบบกระจายกับผู้สร้างโมเดลเพื่อรักษาการกระจายอํานาจและความปลอดภัย ผลิตภัณฑ์แรก Infernet ช่วยให้สัญญาอัจฉริยะบนบล็อกเชนสามารถเข้าถึงโมเดล AI นอกเครือข่ายทําให้สัญญาดังกล่าวสามารถเข้าถึง AI ในลักษณะที่รักษาการตรวจสอบการกระจายอํานาจและการปกป้องความเป็นส่วนตัว

ผู้ประสานงานของ Infernet มีหน้าที่รับผิดชอบในการจัดการพฤติกรรมของโหนดในเครือข่ายและตอบสนองต่อคําขอคํานวณจากผู้บริโภค เมื่อผู้ใช้ใช้ Infernet งานต่างๆเช่นการอนุมานและการพิสูจน์จะดําเนินการนอกห่วงโซ่โดยผลลัพธ์จะถูกส่งกลับไปยังผู้ประสานงานและในที่สุดก็ส่งไปยังผู้บริโภคแบบ on-chain ผ่านสัญญาอัจฉริยะ

นอกเหนือจากเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจแล้วยังมีเครือข่ายแบนด์วิดท์แบบกระจายอํานาจเช่น Grass ซึ่งมีจุดมุ่งหมายเพื่อปรับปรุงความเร็วและประสิทธิภาพของการส่งข้อมูล โดยรวมแล้วการเกิดขึ้นของเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจให้ความเป็นไปได้ใหม่สําหรับด้านอุปทานของพลังการประมวลผล AI ขับเคลื่อน AI ไปข้างหน้าในทิศทางใหม่

3.1.2 รูปแบบอัลกอริทึมแบบกระจายอํานาจ

เช่นเดียวกับที่กล่าวไว้ในบทที่สององค์ประกอบหลักสามประการของ AI คือพลังการคํานวณอัลกอริทึมและข้อมูล เนื่องจากพลังการคํานวณสามารถสร้างเครือข่ายอุปทานผ่านการกระจายอํานาจอัลกอริทึมสามารถปฏิบัติตามแนวทางที่คล้ายกันและสร้างเครือข่ายอุปทานสําหรับแบบจําลองอัลกอริทึมได้หรือไม่?

ก่อนที่จะวิเคราะห์โครงการในสาขานี้ก่อนอื่นเรามาทําความเข้าใจความสําคัญของโมเดลอัลกอริทึมแบบกระจายอํานาจก่อน หลายคนอาจสงสัยว่าเนื่องจากเรามี OpenAI อยู่แล้วทําไมเราถึงต้องการเครือข่ายอัลกอริทึมแบบกระจายอํานาจ

โดยพื้นฐานแล้วเครือข่ายอัลกอริธึมแบบกระจายอํานาจเป็นตลาดบริการอัลกอริทึม AI แบบกระจายอํานาจที่เชื่อมต่อโมเดล AI ที่แตกต่างกันมากมาย โมเดล AI แต่ละรุ่นมีความเชี่ยวชาญและทักษะของตนเอง เมื่อผู้ใช้ตั้งคําถามตลาดจะเลือกโมเดล AI ที่เหมาะสมที่สุดเพื่อตอบคําถาม Chat-GPT พัฒนาโดย OpenAI เป็นหนึ่งในโมเดล AI ที่สามารถเข้าใจและสร้างข้อความที่คล้ายกับมนุษย์ได้

พูดง่ายๆก็คือ ChatGPT เป็นเหมือนนักเรียนที่มีความสามารถสูงในการแก้ปัญหาประเภทต่างๆในขณะที่เครือข่ายอัลกอริทึมแบบกระจายอํานาจเป็นเหมือนโรงเรียนที่มีนักเรียนจํานวนมากช่วยแก้ปัญหา แม้ว่านักเรียนปัจจุบัน (ChatGPT) จะมีความสามารถสูง แต่ในระยะยาวมีศักยภาพที่ดีสําหรับโรงเรียนที่สามารถรับสมัครนักเรียนจากทั่วโลก

ปัจจุบันในด้านแบบจําลองอัลกอริทึมแบบกระจายอํานาจยังมีบางโครงการที่กําลังทดลองและสํารวจ ต่อไปเราจะใช้โครงการตัวแทน Bittensor เป็นกรณีศึกษาเพื่อช่วยให้เข้าใจการพัฒนาของสาขาเฉพาะนี้

ใน Bittensor ด้านอุปทานของโมเดลอัลกอริทึม (หรือนักขุด) สนับสนุนโมเดลแมชชีนเลิร์นนิงให้กับเครือข่าย โมเดลเหล่านี้สามารถวิเคราะห์ข้อมูลและให้ข้อมูลเชิงลึกได้ ผู้ให้บริการโมเดลจะได้รับโทเค็นสกุลเงินดิจิทัลหรือที่เรียกว่า TAO เป็นรางวัลสําหรับการมีส่วนร่วมของพวกเขา

เพื่อให้มั่นใจในคุณภาพของคําตอบ Bittensor ใช้กลไกฉันทามติที่ไม่เหมือนใครเพื่อให้ได้ฉันทามติเกี่ยวกับคําตอบที่ดีที่สุด เมื่อมีการตั้งคําถามนักขุดแบบจําลองหลายคนจะให้คําตอบ จากนั้นผู้ตรวจสอบความถูกต้องในเครือข่ายเริ่มทํางานเพื่อกําหนดคําตอบที่ดีที่สุดซึ่งจะถูกส่งกลับไปยังผู้ใช้

TAO โทเค็นในระบบนิเวศ Bittensor มีบทบาทหลักสองประการตลอดกระบวนการ ในอีกด้านหนึ่งมันทําหน้าที่เป็นแรงจูงใจสําหรับนักขุดในการสนับสนุนโมเดลอัลกอริทึมให้กับเครือข่าย ในทางกลับกันผู้ใช้จําเป็นต้องใช้โทเค็นเพื่อถามคําถามและให้เครือข่ายทํางานให้เสร็จ

เนื่องจาก Bittensor มีการกระจายอํานาจทุกคนที่มีการเข้าถึงอินเทอร์เน็ตสามารถเข้าร่วมเครือข่ายได้ไม่ว่าจะเป็นผู้ใช้ถามคําถามหรือเป็นนักขุดที่ให้คําตอบ สิ่งนี้ช่วยให้ผู้คนจํานวนมากขึ้นสามารถควบคุมพลังของปัญญาประดิษฐ์

โดยสรุปเครือข่ายโมเดลอัลกอริทึมแบบกระจายอํานาจเช่น Bittensor มีศักยภาพในการสร้างภูมิทัศน์ที่เปิดกว้างและโปร่งใสมากขึ้น ในระบบนิเวศนี้โมเดล AI สามารถฝึกอบรมแบ่งปันและใช้ประโยชน์ในลักษณะที่ปลอดภัยและกระจายอํานาจ นอกจากนี้เครือข่ายอื่น ๆ เช่น BasedAI กําลังพยายามที่คล้ายกันโดยมีแง่มุมที่น่าสนใจในการใช้ Zero-Knowledge Proofs (ZK) เพื่อปกป้องความเป็นส่วนตัวของข้อมูลแบบโต้ตอบของแบบจําลองผู้ใช้ซึ่งจะกล่าวถึงเพิ่มเติมในส่วนย่อยที่สี่

เมื่อแพลตฟอร์มโมเดลอัลกอริธึมแบบกระจายอํานาจพัฒนาขึ้นจะช่วยให้ บริษัท ขนาดเล็กสามารถแข่งขันกับองค์กรขนาดใหญ่ในการใช้เครื่องมือ AI ที่ทันสมัยซึ่งอาจส่งผลกระทบอย่างมีนัยสําคัญในอุตสาหกรรมต่างๆ

3.1.3 การรวบรวมข้อมูลแบบกระจายอํานาจ

สําหรับการฝึกอบรมโมเดล AI การจัดหาข้อมูลจํานวนมากเป็นสิ่งที่ขาดไม่ได้ อย่างไรก็ตาม บริษัท Web2 ส่วนใหญ่ในปัจจุบันยังคงผูกขาดข้อมูลผู้ใช้ แพลตฟอร์มเช่น X, Reddit, TikTok, Snapchat, Instagram และ YouTube ห้ามรวบรวมข้อมูลสําหรับการฝึกอบรม AI ซึ่งเป็นอุปสรรคสําคัญต่อการพัฒนาอุตสาหกรรม AI

ในทางกลับกันแพลตฟอร์ม Web2 บางแห่งขายข้อมูลผู้ใช้ให้กับ บริษัท AI โดยไม่ต้องแบ่งปันผลกําไรใด ๆ กับผู้ใช้ ตัวอย่างเช่น Reddit บรรลุข้อตกลงมูลค่า 60 ล้านดอลลาร์กับ Google ทําให้ Google สามารถฝึกโมเดล AI โดยใช้โพสต์ได้ ส่งผลให้สิทธิในการรวบรวมข้อมูลถูกผูกขาดโดยบริษัทเงินทุนรายใหญ่และบริษัทข้อมูลขนาดใหญ่ ผลักดันอุตสาหกรรมไปสู่ทิศทางที่ต้องใช้เงินทุนสูง

เพื่อตอบสนองต่อสถานการณ์นี้บางโครงการใช้ประโยชน์จาก Web3 และแรงจูงใจโทเค็นเพื่อให้บรรลุการรวบรวมข้อมูลแบบกระจายอํานาจ ใช้ PublicAI เป็นตัวอย่าง: ผู้ใช้สามารถมีส่วนร่วมในสองบทบาท:

  • หมวดหมู่หนึ่งคือผู้ให้บริการข้อมูล AI ผู้ใช้สามารถค้นหาเนื้อหาที่มีค่าบน X แท็ก @PublicAI บัญชีทางการพร้อมข้อมูลเชิงลึกและใช้แฮชแท็ก #AI หรือ #Web3 เพื่อจัดหมวดหมู่เนื้อหาจึงส่งไปยังศูนย์ข้อมูล PublicAI เพื่อรวบรวม
  • อีกประเภทหนึ่งคือตัวตรวจสอบข้อมูล ผู้ใช้สามารถเข้าสู่ศูนย์ข้อมูล PublicAI และโหวตข้อมูลที่มีค่าที่สุดสําหรับการฝึกอบรม AI

เพื่อเป็นรางวัลผู้ใช้สามารถรับโทเค็นผ่านการมีส่วนร่วมเหล่านี้ส่งเสริมความสัมพันธ์แบบ win-win ระหว่างผู้ให้ข้อมูลและอุตสาหกรรม AI

นอกเหนือจากโครงการเช่น PublicAI ซึ่งรวบรวมข้อมูลสําหรับการฝึกอบรม AI โดยเฉพาะแล้วยังมีโครงการอื่น ๆ อีกมากมายที่ใช้สิ่งจูงใจโทเค็นสําหรับการรวบรวมข้อมูลแบบกระจายอํานาจ ตัวอย่างเช่น Ocean รวบรวมข้อมูลผู้ใช้ผ่านโทเค็นข้อมูลเพื่อให้บริการ AI Hivemapper ใช้กล้องรถยนต์ของผู้ใช้เพื่อรวบรวมข้อมูลแผนที่ Dimo รวบรวมข้อมูลรถยนต์และ WiHi รวบรวมข้อมูลสภาพอากาศ โครงการเหล่านี้ผ่านการรวบรวมข้อมูลแบบกระจายอํานาจยังทําหน้าที่เป็นแหล่งข้อมูลที่มีศักยภาพสําหรับการฝึกอบรม AI ดังนั้นในความหมายกว้างพวกเขาสามารถรวมอยู่ในกระบวนทัศน์ของ Web3 ช่วย AI

3.1.4 ZK ปกป้องความเป็นส่วนตัวของผู้ใช้ใน AI

เทคโนโลยีบล็อกเชนให้ประโยชน์ในการกระจายอํานาจและยังแนะนําคุณสมบัติที่สําคัญ: การพิสูจน์ความรู้เป็นศูนย์ เทคโนโลยีที่ไม่มีความรู้ช่วยให้สามารถตรวจสอบข้อมูลในขณะที่รักษาความเป็นส่วนตัว

ในแมชชีนเลิร์นนิงแบบดั้งเดิมข้อมูลมักจะต้องถูกจัดเก็บและประมวลผลจากส่วนกลางซึ่งอาจนําไปสู่ความเสี่ยงด้านความเป็นส่วนตัว วิธีการปกป้องความเป็นส่วนตัวของข้อมูล เช่น การเข้ารหัสหรือการไม่ระบุชื่อข้อมูล อาจจํากัดความถูกต้องและประสิทธิภาพของโมเดลแมชชีนเลิร์นนิ่ง

เทคโนโลยีการพิสูจน์ความรู้เป็นศูนย์ช่วยแก้ไขภาวะที่กลืนไม่เข้าคายไม่ออกนี้โดยจัดการกับความขัดแย้งระหว่างการปกป้องความเป็นส่วนตัวและการแบ่งปันข้อมูล Zero-Knowledge Machine Learning (ZKML) ใช้เทคโนโลยีการพิสูจน์ความรู้เป็นศูนย์เพื่อเปิดใช้งานการฝึกอบรมโมเดลแมชชีนเลิร์นนิ่งและการอนุมานโดยไม่ต้องเปิดเผยข้อมูลต้นฉบับ การพิสูจน์ความรู้เป็นศูนย์ช่วยให้มั่นใจได้ว่าคุณสมบัติของข้อมูลและผลลัพธ์ของแบบจําลองสามารถตรวจสอบได้ว่าถูกต้องโดยไม่เปิดเผยเนื้อหาข้อมูลจริง

เป้าหมายหลักของ ZKML คือการสร้างสมดุลระหว่างการปกป้องความเป็นส่วนตัวและการแบ่งปันข้อมูล สามารถนําไปใช้ในสถานการณ์ต่างๆเช่นการวิเคราะห์ข้อมูลการดูแลสุขภาพการวิเคราะห์ข้อมูลทางการเงินและการทํางานร่วมกันข้ามองค์กร ด้วยการใช้ ZKML บุคคลสามารถปกป้องความเป็นส่วนตัวของข้อมูลที่ละเอียดอ่อนของพวกเขาในขณะที่แบ่งปันข้อมูลกับผู้อื่นเพื่อรับข้อมูลเชิงลึกที่กว้างขึ้นและโอกาสในการทํางานร่วมกันโดยไม่เสี่ยงต่อการละเมิดความเป็นส่วนตัวของข้อมูล สาขานี้ยังอยู่ในช่วงเริ่มต้น โดยโครงการส่วนใหญ่ยังอยู่ระหว่างการสํารวจ ตัวอย่างเช่น BasedAI เสนอแนวทางการกระจายอํานาจโดยการรวม Fully Homomorphic Encryption (FHE) เข้ากับ Large Language Models (LLMs) อย่างราบรื่นเพื่อรักษาความลับของข้อมูล Zero-Knowledge Large Language Models (ZK-LLMs) ฝังความเป็นส่วนตัวลงในโครงสร้างพื้นฐานเครือข่ายแบบกระจายเพื่อให้มั่นใจว่าข้อมูลผู้ใช้จะยังคงเป็นความลับตลอดการทํางานของเครือข่าย

นี่คือคําอธิบายสั้น ๆ ของ Fully Homomorphic Encryption (FHE) FHE เป็นเทคนิคการเข้ารหัสที่ช่วยให้การคํานวณสามารถดําเนินการกับข้อมูลที่เข้ารหัสได้โดยไม่จําเป็นต้องถอดรหัส ซึ่งหมายความว่าการดําเนินการทางคณิตศาสตร์ต่างๆ (เช่นการบวกการคูณ ฯลฯ ) ที่ดําเนินการกับข้อมูลที่เข้ารหัส FHE จะให้ผลลัพธ์เช่นเดียวกับการดําเนินการกับข้อมูลที่ไม่ได้เข้ารหัสดั้งเดิมซึ่งจะช่วยปกป้องความเป็นส่วนตัวของข้อมูลผู้ใช้

นอกเหนือจากวิธีการดังกล่าวแล้ว Web3 ยังรองรับ AI ผ่านโครงการต่างๆเช่น Cortex ซึ่งช่วยให้สามารถดําเนินการโปรแกรม AI แบบ on-chain ได้ การเรียกใช้โปรแกรมแมชชีนเลิร์นนิงบนบล็อกเชนแบบดั้งเดิมต้องเผชิญกับความท้าทายเนื่องจากเครื่องเสมือนไม่มีประสิทธิภาพสูงในการเรียกใช้โมเดลแมชชีนเลิร์นนิ่งที่ไม่สําคัญ คนส่วนใหญ่เชื่อว่าการใช้ AI บนบล็อกเชนเป็นไปไม่ได้ อย่างไรก็ตาม Cortex Virtual Machine (CVM) ใช้ GPU เพื่อรันโปรแกรม AI แบบ on-chain และเข้ากันได้กับ Ethereum Virtual Machine (EVM) กล่าวอีกนัยหนึ่งห่วงโซ่ Cortex สามารถดําเนินการ Ethereum DApps ทั้งหมดและรวมการเรียนรู้ของเครื่อง AI เข้ากับ DApps เหล่านี้ สิ่งนี้ทําให้โมเดลแมชชีนเลิร์นนิงทํางานในลักษณะกระจายอํานาจ ไม่เปลี่ยนแปลง และโปร่งใส โดยมีฉันทามติของเครือข่ายที่ตรวจสอบแต่ละขั้นตอนของการอนุมาน AI

3.2 AI ช่วย Web3

ในการปะทะกันระหว่าง AI และ Web3 นอกเหนือจากความช่วยเหลือของ Web3 ต่อ AI แล้ว ความช่วยเหลือของ AI ต่ออุตสาหกรรม Web3 ก็ควรค่าแก่การเอาใจใส่เช่นกัน ผลงานหลักของปัญญาประดิษฐ์คือการปรับปรุงประสิทธิภาพการทํางานดังนั้นจึงมีความพยายามมากมายในการตรวจสอบสัญญาอัจฉริยะการวิเคราะห์และคาดการณ์ข้อมูลบริการส่วนบุคคลความปลอดภัยและการปกป้องความเป็นส่วนตัวเป็นต้น

3.2.1 การวิเคราะห์และคาดการณ์ข้อมูล

โครงการ Web3 จํานวนมากกําลังรวมบริการ AI ที่มีอยู่ (เช่น ChatGPT) หรือพัฒนาเองเพื่อให้บริการวิเคราะห์ข้อมูลและคาดการณ์สําหรับผู้ใช้ Web3 บริการเหล่านี้ครอบคลุมช่วงกว้างรวมถึงอัลกอริทึม AI สําหรับกลยุทธ์การลงทุนเครื่องมือวิเคราะห์แบบ on-chain และการคาดการณ์ราคาและตลาด

ตัวอย่างเช่น Pond ใช้อัลกอริธึมกราฟ AI เพื่อทํานายโทเค็นอัลฟ่าในอนาคตที่มีคุณค่า โดยให้บริการที่ปรึกษาการลงทุนแก่ผู้ใช้และสถาบันต่างๆ BullBear AI จะฝึกฝนข้อมูลในอดีตของผู้ใช้ประวัติราคาและแนวโน้มของตลาดเพื่อให้ข้อมูลที่ถูกต้องซึ่งสนับสนุนการคาดการณ์แนวโน้มราคาช่วยให้ผู้ใช้บรรลุผลกําไร

แพลตฟอร์มเช่น Numerai จัดการแข่งขันการลงทุนที่ผู้เข้าร่วมใช้ AI และแบบจําลองภาษาขนาดใหญ่เพื่อทํานายตลาดหุ้น พวกเขาฝึกโมเดลเกี่ยวกับข้อมูลคุณภาพสูงที่จัดทําโดยแพลตฟอร์มและส่งการคาดการณ์รายวัน Numerai ประเมินการคาดการณ์เหล่านี้ในเดือนถัดไป และผู้เข้าร่วมสามารถเดิมพันโทเค็น NMR โทเค็นบนโมเดลของตนเพื่อรับรางวัลตามประสิทธิภาพ

Arkham ซึ่งเป็นแพลตฟอร์มการวิเคราะห์ข้อมูลบล็อกเชนยังรวม AI เข้ากับบริการของตน Arkham เชื่อมโยงที่อยู่บล็อกเชนกับหน่วยงานต่างๆ เช่น การแลกเปลี่ยน กองทุน และปลาวาฬ โดยแสดงข้อมูลสําคัญและการวิเคราะห์เพื่อให้ผู้ใช้ได้เปรียบในการตัดสินใจ Arkham Ultra จับคู่ที่อยู่กับเอนทิตีในโลกแห่งความเป็นจริงโดยใช้อัลกอริทึมที่พัฒนาขึ้นในช่วงสามปีโดยได้รับการสนับสนุนจากผู้ก่อตั้ง Palantir และ OpenAI

3.2.2 บริการส่วนบุคคล

แอปพลิเคชัน AI ในการค้นหาและคําแนะนําเป็นที่แพร่หลายในโครงการ Web2 ซึ่งตอบสนองความต้องการส่วนบุคคลของผู้ใช้ โครงการ Web3 ในทํานองเดียวกันรวม AI เพื่อปรับปรุงประสบการณ์ของผู้ใช้

ตัวอย่างเช่นแพลตฟอร์มการวิเคราะห์ข้อมูลที่รู้จักกันดี Dune เพิ่งเปิดตัวเครื่องมือ Wand ซึ่งใช้โมเดลภาษาขนาดใหญ่ในการเขียนแบบสอบถาม SQL ด้วย Wand Create ผู้ใช้สามารถสร้างแบบสอบถาม SQL จากคําถามภาษาธรรมชาติทําให้ผู้ที่ไม่คุ้นเคยกับ SQL สามารถค้นหาข้อมูลได้อย่างง่ายดาย

แพลตฟอร์มเนื้อหาเช่น Followin รวม ChatGPT เพื่อสรุปมุมมองและการอัปเดตในภาคส่วนเฉพาะ สารานุกรม Web3 IQ.wiki มีจุดมุ่งหมายเพื่อเป็นแหล่งหลักของวัตถุประสงค์ความรู้คุณภาพสูงเกี่ยวกับเทคโนโลยีบล็อกเชนและสกุลเงินดิจิทัล มันรวม GPT-4 เพื่อสรุปบทความวิกิทําให้ข้อมูลบล็อกเชนสามารถเข้าถึงได้มากขึ้นทั่วโลก เครื่องมือค้นหาที่ใช้ LLM Kaito มีจุดมุ่งหมายเพื่อปฏิวัติการดึงข้อมูล Web3

ในโดเมนครีเอทีฟโฆษณาโครงการเช่น NFPrompt ลดต้นทุนในการสร้างเนื้อหา NFPrompt ช่วยให้ผู้ใช้สร้าง NFT ได้ง่ายขึ้นด้วย AI โดยให้บริการสร้างสรรค์ส่วนบุคคลที่หลากหลาย

3.2.3 AI Auditing Smart Contracts

การตรวจสอบสัญญาอัจฉริยะเป็นงานสําคัญใน Web3 และ AI สามารถเพิ่มประสิทธิภาพและความแม่นยําในการระบุช่องโหว่ของโค้ด

Vitalik Buterin ได้ตั้งข้อสังเกตว่าหนึ่งในความท้าทายที่ยิ่งใหญ่ที่สุดในพื้นที่ cryptocurrency คือข้อผิดพลาดในรหัสของเรา AI ให้คํามั่นสัญญาว่าจะลดความซับซ้อนของการใช้เครื่องมือตรวจสอบอย่างเป็นทางการเพื่อพิสูจน์ความถูกต้องของรหัส การบรรลุเป้าหมายนี้อาจนําไปสู่ SEK EVM (Ethereum Virtual Machine) ที่ปราศจากข้อผิดพลาดซึ่งช่วยเพิ่มความปลอดภัยในอวกาศเนื่องจากข้อผิดพลาดน้อยลงจะเพิ่มความปลอดภัยโดยรวม

ตัวอย่างเช่นโครงการ 0x0.ai เสนอผู้ตรวจสอบสัญญาอัจฉริยะที่ขับเคลื่อนด้วย AI เครื่องมือนี้ใช้อัลกอริธึมขั้นสูงเพื่อวิเคราะห์สัญญาอัจฉริยะและระบุช่องโหว่หรือปัญหาที่อาจเกิดขึ้นซึ่งอาจนําไปสู่การฉ้อโกงหรือความเสี่ยงด้านความปลอดภัยอื่น ๆ ผู้ตรวจสอบใช้แมชชีนเลิร์นนิงเพื่อตรวจจับรูปแบบและความผิดปกติในโค้ด โดยตั้งค่าสถานะปัญหาที่อาจเกิดขึ้นเพื่อตรวจสอบเพิ่มเติม

มีกรณีดั้งเดิมอื่น ๆ ที่ AI ช่วย Web3 PAAL ช่วยให้ผู้ใช้สร้างบอท AI ส่วนบุคคลที่สามารถปรับใช้บน Telegram และ Discord เพื่อให้บริการผู้ใช้ Web3 Hera ผู้รวบรวม DEX แบบหลายสายโซ่ที่ขับเคลื่อนด้วย AI ใช้ AI เพื่อมอบเส้นทางการซื้อขายที่ดีที่สุดระหว่างคู่โทเค็นใด ๆ ในโทเค็นต่างๆ โดยรวมแล้วการมีส่วนร่วมของ AI ใน Web3 นั้นอยู่ในระดับเครื่องมือเป็นหลักซึ่งช่วยปรับปรุงกระบวนการและฟังก์ชันการทํางานต่างๆ

ข้อจํากัดและความท้าทายในปัจจุบันของโครงการ AI + Web3

4.1 อุปสรรคที่สมจริงในพลังการประมวลผลแบบกระจายอํานาจ

ปัจจุบันโครงการ Web3 จํานวนมากที่ช่วยเหลือ AI กําลังมุ่งเน้นไปที่พลังการประมวลผลแบบกระจายอํานาจ การใช้สิ่งจูงใจโทเค็นเพื่อส่งเสริมผู้ใช้ทั่วโลกให้เป็นส่วนหนึ่งของด้านแหล่งจ่ายไฟคอมพิวเตอร์เป็นนวัตกรรมที่น่าสนใจมาก อย่างไรก็ตามในทางกลับกันมีปัญหาที่เป็นจริงบางอย่างที่ต้องได้รับการแก้ไข:

เมื่อเทียบกับผู้ให้บริการพลังงานการประมวลผลแบบรวมศูนย์ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมักจะพึ่งพาโหนดและผู้เข้าร่วมที่กระจายอยู่ทั่วโลกเพื่อจัดหาทรัพยากรการประมวลผล เนื่องจากเวลาแฝงที่เป็นไปได้และความไม่เสถียรในการเชื่อมต่อเครือข่ายระหว่างโหนดเหล่านี้ประสิทธิภาพและความเสถียรอาจแย่กว่าผลิตภัณฑ์พลังงานการประมวลผลแบบรวมศูนย์

นอกจากนี้ความพร้อมใช้งานของผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจได้รับผลกระทบจากระดับการจับคู่ระหว่างอุปสงค์และอุปทาน หากมีซัพพลายเออร์ไม่เพียงพอหรือหากความต้องการสูงเกินไปอาจนําไปสู่การขาดแคลนทรัพยากรหรือไม่สามารถตอบสนองความต้องการของผู้ใช้ได้

ในที่สุดเมื่อเทียบกับผลิตภัณฑ์พลังงานการประมวลผลแบบรวมศูนย์ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมักจะเกี่ยวข้องกับรายละเอียดทางเทคนิคและความซับซ้อนมากขึ้น ผู้ใช้อาจต้องเข้าใจและจัดการแง่มุมของเครือข่ายแบบกระจายสัญญาอัจฉริยะและการชําระเงินด้วยสกุลเงินดิจิทัลซึ่งจะเพิ่มค่าใช้จ่ายในการทําความเข้าใจและการใช้งานของผู้ใช้

หลังจากการหารือเชิงลึกกับทีมโครงการพลังการประมวลผลแบบกระจายอํานาจจํานวนมากพบว่าพลังการประมวลผลแบบกระจายอํานาจในปัจจุบันยังคงจํากัดอยู่ที่การอนุมาน AI มากกว่าการฝึกอบรม AI

ต่อไปฉันจะใช้คําถามสี่ข้อเพื่อช่วยให้ทุกคนเข้าใจเหตุผลที่อยู่เบื้องหลังสิ่งนี้:

  1. เหตุใดโครงการพลังการประมวลผลแบบกระจายอํานาจส่วนใหญ่จึงเลือกที่จะทําการอนุมาน AI มากกว่าการฝึกอบรม AI

  2. อะไรทําให้ NVIDIA ทรงพลัง? อะไรคือเหตุผลที่การฝึกอบรมพลังการประมวลผลแบบกระจายอํานาจเป็นเรื่องยาก?

  3. อะไรคือ endgame สําหรับพลังการประมวลผลแบบกระจายอํานาจ (Render, Akash, io.net ฯลฯ )

  4. Endgame สําหรับอัลกอริธึมแบบกระจายอํานาจ (Bittensor) จะเป็นอย่างไร

มาเจาะลึกรายละเอียดทีละขั้นตอน:

1) การสังเกตสาขานี้โครงการพลังการประมวลผลแบบกระจายอํานาจส่วนใหญ่เลือกที่จะมุ่งเน้นไปที่การอนุมาน AI มากกว่าการฝึกอบรมเนื่องจากข้อกําหนดที่แตกต่างกันสําหรับพลังการประมวลผลและแบนด์วิดท์

เพื่อช่วยให้ทุกคนเข้าใจได้ดีขึ้น มาเปรียบเทียบ AI กับนักเรียน:

  • การฝึกอบรม AI: หากเราเปรียบเทียบปัญญาประดิษฐ์กับนักเรียนการฝึกอบรมจะคล้ายกับการให้ความรู้และตัวอย่างจํานวนมากแก่ AI ซึ่งคล้ายกับสิ่งที่เรามักเรียกว่าข้อมูล AI เรียนรู้จากตัวอย่างเหล่านี้ เนื่องจากการเรียนรู้เกี่ยวข้องกับการทําความเข้าใจและจดจําข้อมูลจํานวนมหาศาลกระบวนการนี้จึงต้องใช้พลังและเวลาในการประมวลผลอย่างมาก

  • การอนุมาน AI: การอนุมานสามารถเข้าใจได้ว่าเป็นการใช้ความรู้ที่ได้รับเพื่อแก้ปัญหาหรือทําการสอบ ในระหว่างการอนุมาน AI ใช้ความรู้ที่เรียนรู้เพื่อตอบคําถามแทนที่จะได้รับข้อมูลใหม่ดังนั้นข้อกําหนดการคํานวณจึงค่อนข้างต่ํา

เป็นเรื่องง่าย

ที่จะเห็นว่าความแตกต่างพื้นฐานในความยากลําบากอยู่ที่ความจริงที่ว่าการฝึกอบรม AI โมเดลขนาดใหญ่ต้องการปริมาณข้อมูลมหาศาลและแบนด์วิดท์ที่สูงมากสําหรับการส่งข้อมูลทําให้เป็นเรื่องยากมากที่จะบรรลุด้วยพลังการประมวลผลแบบกระจายอํานาจ ในทางตรงกันข้ามการอนุมานต้องการข้อมูลและแบนด์วิดท์น้อยกว่ามากทําให้เป็นไปได้มากขึ้น

สําหรับรุ่นใหญ่ความเสถียรเป็นสิ่งสําคัญ หากการฝึกอบรมถูกขัดจังหวะจะต้องเริ่มต้นใหม่ส่งผลให้ต้นทุนจมสูง ในทางกลับกันความต้องการที่มีความต้องการพลังงานการประมวลผลที่ค่อนข้างต่ําเช่นการอนุมาน AI หรือสถานการณ์เฉพาะบางอย่างที่เกี่ยวข้องกับการฝึกอบรมโมเดลขนาดกลางถึงขนาดเล็กสามารถทําได้ ในเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจผู้ให้บริการโหนดที่ค่อนข้างใหญ่บางรายสามารถตอบสนองความต้องการพลังงานการประมวลผลที่ค่อนข้างสูงเหล่านี้ได้

2) ดังนั้นคอขวดในข้อมูลและแบนด์วิดท์อยู่ที่ไหน? เหตุใดการฝึกอบรมแบบกระจายอํานาจจึงยากที่จะบรรลุ

สิ่งนี้เกี่ยวข้องกับองค์ประกอบสําคัญสองประการของการฝึกอบรมโมเดลขนาดใหญ่: พลังการประมวลผลแบบการ์ดเดียวและการขนานแบบหลายการ์ด

พลังการประมวลผลแบบบัตรเดียว: ปัจจุบันศูนย์ทั้งหมดที่ต้องการการฝึกอบรมโมเดลขนาดใหญ่ที่เรียกว่าศูนย์ซูเปอร์คอมพิวเตอร์สามารถเปรียบเทียบกับร่างกายมนุษย์โดยที่หน่วยพื้นฐานคือ GPU เป็นเหมือนเซลล์ หากพลังการประมวลผลของเซลล์เดียว (GPU) แข็งแกร่งพลังการประมวลผลโดยรวม (เซลล์เดียว×ปริมาณ) ก็แข็งแกร่งมากเช่นกัน

ความขนานหลายการ์ด: การฝึกอบรมโมเดลขนาดใหญ่มักเกี่ยวข้องกับกิกะไบต์หลายแสนล้านกิกะไบต์ สําหรับศูนย์ซูเปอร์คอมพิวเตอร์ที่ฝึกรุ่นใหญ่จําเป็นต้องมี A100 GPU อย่างน้อยหลายหมื่นตัว สิ่งนี้จําเป็นต้องระดมการ์ดหลายพันใบเพื่อฝึกอบรม อย่างไรก็ตามการฝึกอบรมโมเดลขนาดใหญ่ไม่ใช่กระบวนการอนุกรมง่ายๆ มันไม่ได้เพียงแค่ฝึกบนการ์ด A100 ใบแรกแล้วย้ายไปที่การ์ดใบที่สอง แต่ส่วนต่าง ๆ ของโมเดลจะได้รับการฝึกอบรมเกี่ยวกับ GPU ที่แตกต่างกันพร้อมกันและส่วนการฝึกอบรม A อาจต้องการผลลัพธ์จากส่วน B ซึ่งเกี่ยวข้องกับการประมวลผลแบบขนาน

การครอบงําของ NVIDIA และมูลค่าตลาดที่เพิ่มขึ้นในขณะที่ AMD และ บริษัท ในประเทศเช่น Huawei และ Horizon พบว่ามันยากที่จะตามทันเกิดจากสองด้าน: สภาพแวดล้อมซอฟต์แวร์ CUDA และการสื่อสารหลายการ์ด NVLink

สภาพแวดล้อมซอฟต์แวร์ CUDA: มีระบบนิเวศซอฟต์แวร์ที่ตรงกับฮาร์ดแวร์หรือไม่เป็นสิ่งสําคัญเช่นระบบ CUDA ของ NVIDIA การสร้างระบบใหม่เป็นเรื่องที่ท้าทายคล้ายกับการสร้างภาษาใหม่ที่มีต้นทุนทดแทนสูง

การสื่อสารหลายการ์ด NVLink: โดยพื้นฐานแล้วการสื่อสารแบบหลายการ์ดเกี่ยวข้องกับอินพุตและเอาต์พุตของข้อมูล วิธีการขนานและส่งเป็นสิ่งสําคัญ การปรากฏตัวของ NVLink หมายความว่าการ์ด NVIDIA และ AMD ไม่สามารถสื่อสารกันได้ นอกจากนี้ NVLink ยังจํากัดระยะห่างทางกายภาพระหว่าง GPU โดยกําหนดให้อยู่ในศูนย์ซูเปอร์คอมพิวเตอร์เดียวกัน สิ่งนี้ทําให้ยากสําหรับพลังการประมวลผลแบบกระจายอํานาจที่กระจายไปทั่วโลกเพื่อสร้างคลัสเตอร์การประมวลผลที่เหนียวแน่นสําหรับการฝึกอบรมโมเดลขนาดใหญ่

ประเด็นแรกอธิบายว่าเหตุใด AMD และ บริษัท ในประเทศเช่น Huawei และ Horizon จึงต้องดิ้นรนเพื่อให้ทัน ประเด็นที่สองอธิบายว่าเหตุใดการฝึกอบรมแบบกระจายอํานาจจึงยากที่จะบรรลุ

3) อะไรคือ endgame สําหรับพลังการประมวลผลแบบกระจายอํานาจ? พลังการประมวลผลแบบกระจายอํานาจในปัจจุบันต้องต่อสู้กับการฝึกอบรมโมเดลขนาดใหญ่เนื่องจากความเสถียรเป็นสิ่งสําคัญยิ่ง การหยุดชะงักจําเป็นต้องฝึกอบรมใหม่ส่งผลให้ต้นทุนจมสูง ข้อกําหนดระดับสูงสําหรับการขนานหลายการ์ดถูก จํากัด โดยข้อ จํากัด แบนด์วิดท์ทางกายภาพ NVLink ของ NVIDIA รองรับการสื่อสารแบบหลายการ์ด แต่ภายในศูนย์ซูเปอร์คอมพิวเตอร์ NVLink จะจํากัดระยะห่างทางกายภาพระหว่าง GPU ดังนั้นพลังการประมวลผลที่กระจัดกระจายจึงไม่สามารถสร้างคลัสเตอร์คอมพิวเตอร์สําหรับการฝึกอบรมโมเดลขนาดใหญ่ได้

อย่างไรก็ตามสําหรับความต้องการที่มีความต้องการพลังงานการประมวลผลที่ค่อนข้างต่ําเช่นการอนุมาน AI หรือสถานการณ์เฉพาะบางอย่างที่เกี่ยวข้องกับการฝึกอบรมโมเดลขนาดกลางถึงขนาดเล็กเครือข่ายพลังการประมวลผลแบบกระจายอํานาจกับผู้ให้บริการโหนดที่ค่อนข้างใหญ่มีศักยภาพ นอกจากนี้สถานการณ์เช่น Edge Computing สําหรับการเรนเดอร์นั้นค่อนข้างง่ายต่อการใช้งาน

4) endgame สําหรับโมเดลอัลกอริธึมแบบกระจายอํานาจจะเป็นอย่างไร? อนาคตของโมเดลอัลกอริธึมแบบกระจายอํานาจขึ้นอยู่กับทิศทางสูงสุดของ AI ฉันเชื่อว่าอนาคตของ AI อาจมียักษ์ใหญ่โมเดลแบบปิด 1-2 ราย (เช่น ChatGPT) ควบคู่ไปกับโมเดลมากมาย ในบริบทนี้ผลิตภัณฑ์เลเยอร์แอปพลิเคชันไม่จําเป็นต้องผูกกับโมเดลขนาดใหญ่เพียงรุ่นเดียว แต่ให้ความร่วมมือกับโมเดลขนาดใหญ่หลายรุ่น ในสถานการณ์สมมตินี้ แบบจําลองของ Bittensor แสดงศักยภาพที่สําคัญ

ในโครงการปัจจุบันที่รวม Web3 และ AI โดยเฉพาะอย่างยิ่งโครงการที่ AI ช่วยความคิดริเริ่ม Web3 โครงการส่วนใหญ่ใช้ AI เพียงผิวเผินโดยไม่แสดงให้เห็นถึงการบูรณาการอย่างลึกซึ้งระหว่าง AI และ cryptocurrencies แอปพลิเคชันผิวเผินนี้เห็นได้ชัดในสองด้านต่อไปนี้:

  • ประการแรกไม่ว่าจะใช้ AI สําหรับการวิเคราะห์และคาดการณ์ข้อมูลในสถานการณ์คําแนะนําและการค้นหาหรือสําหรับการตรวจสอบโค้ดมีความแตกต่างเล็กน้อยเมื่อเทียบกับการรวม AI ในโครงการ Web2 โครงการเหล่านี้ใช้ประโยชน์จาก AI เพื่อเพิ่มประสิทธิภาพและการวิเคราะห์โดยไม่ต้องแสดงการผสมผสานแบบเนทีฟของ AI และ cryptocurrencies หรือนําเสนอโซลูชันที่เป็นนวัตกรรมใหม่
  • ประการที่สองทีม Web3 จํานวนมากรวม AI เป็นกลไกทางการตลาดมากขึ้นโดยใช้ประโยชน์จากแนวคิด AI อย่างหมดจด พวกเขาใช้เทคโนโลยี AI ในพื้นที่ จํากัด มากแล้วเริ่มส่งเสริมแนวโน้มของ AI สร้างซุ้มของการบูรณาการอย่างใกล้ชิดกับ AI อย่างไรก็ตามโครงการเหล่านี้ขาดนวัตกรรมที่สําคัญ

แม้ว่าโครงการ Web3 และ AI ในปัจจุบันจะมีข้อ จํากัด เหล่านี้ แต่เราควรตระหนักว่านี่เป็นเพียงช่วงเริ่มต้นของการพัฒนา ในอนาคตเราสามารถคาดหวังการวิจัยและนวัตกรรมเชิงลึกมากขึ้นเพื่อให้เกิดการผสานรวมที่เข้มงวดยิ่งขึ้นระหว่าง AI และ cryptocurrencies สร้างโซลูชันดั้งเดิมและมีความหมายมากขึ้นในด้านต่างๆเช่นการเงินองค์กรอิสระแบบกระจายอํานาจ (DAOs) ตลาดการคาดการณ์และ NFT

4.3 Token Economics ทําหน้าที่เป็นบัฟเฟอร์สําหรับ AI Project Narratives

ดังที่ได้กล่าวไว้ในตอนแรกโครงการ AI ต้องเผชิญกับความท้าทายในรูปแบบธุรกิจโดยเฉพาะอย่างยิ่งเมื่อโมเดลขนาดใหญ่มากขึ้นเรื่อย ๆ ค่อยๆกลายเป็นโอเพ่นซอร์ส โครงการ AI + Web3 จํานวนมากซึ่งมักจะเป็นโครงการ AI บริสุทธิ์ที่ดิ้นรนเพื่อเติบโตและรักษาความปลอดภัยในการระดมทุนในพื้นที่ Web2 เลือกที่จะซ้อนทับการเล่าเรื่องและเศรษฐศาสตร์โทเค็นจาก Web3 เพื่อส่งเสริมการมีส่วนร่วมของผู้ใช้

อย่างไรก็ตามคําถามที่สําคัญคือการรวมเศรษฐศาสตร์โทเค็นช่วยให้โครงการ AI ตอบสนองความต้องการในโลกแห่งความเป็นจริงได้อย่างแท้จริงหรือไม่หรือเป็นเพียงการเล่าเรื่องหรือการนําเสนอคุณค่าในระยะสั้น ปัจจุบันโครงการ AI + Web3 ส่วนใหญ่ยังห่างไกลจากขั้นตอนการปฏิบัติ หวังว่าทีมที่มีเหตุผลและรอบคอบมากขึ้นจะไม่เพียง แต่ใช้โทเค็นเป็นเครื่องมือในการโฆษณาโครงการ AI แต่ยังตอบสนองกรณีการใช้งานจริงอย่างแท้จริง

Summary

ปัจจุบันมีกรณีและแอปพลิเคชันจํานวนมากเกิดขึ้นในโครงการ AI + Web3 ประการแรกเทคโนโลยี AI สามารถให้กรณีการใช้งานที่มีประสิทธิภาพและชาญฉลาดยิ่งขึ้นสําหรับ Web3 ด้วยความสามารถของ AI ในการวิเคราะห์และคาดการณ์ข้อมูลผู้ใช้ใน Web3 สามารถมีเครื่องมือที่ดีกว่าสําหรับการตัดสินใจลงทุนและสถานการณ์อื่น ๆ นอกจากนี้ AI ยังสามารถตรวจสอบรหัสสัญญาอัจฉริยะเพิ่มประสิทธิภาพการดําเนินการตามสัญญาและเพิ่มประสิทธิภาพและประสิทธิภาพของบล็อกเชน นอกจากนี้เทคโนโลยี AI ยังสามารถให้คําแนะนําที่แม่นยําและชาญฉลาดยิ่งขึ้นและบริการส่วนบุคคลสําหรับแอปพลิเคชันแบบกระจายอํานาจซึ่งจะช่วยปรับปรุงประสบการณ์ของผู้ใช้

ในขณะเดียวกัน

ลักษณะการกระจายอํานาจและโปรแกรมได้ของ Web3 ยังนําเสนอโอกาสใหม่สําหรับเทคโนโลยี AI โครงการพลังการประมวลผลแบบกระจายอํานาจมอบโซลูชันใหม่ให้กับภาวะที่กลืนไม่เข้าคายไม่ออกของพลังการประมวลผล AI ไม่เพียงพอ สัญญาอัจฉริยะและกลไกการจัดเก็บข้อมูลแบบกระจายของ Web3 ยังมีพื้นที่และทรัพยากรที่กว้างขึ้นสําหรับการแบ่งปันและการฝึกอบรมอัลกอริทึม AI กลไกความเป็นอิสระและความไว้วางใจของผู้ใช้ของ Web3 ยังนํามาซึ่งความเป็นไปได้ใหม่สําหรับการพัฒนา AI ทําให้ผู้ใช้สามารถเลือกเข้าร่วมในการแบ่งปันข้อมูลและการฝึกอบรมได้อย่างอิสระซึ่งจะช่วยเพิ่มความหลากหลายและคุณภาพของข้อมูลและปรับปรุงประสิทธิภาพและความแม่นยําของโมเดล AI ต่อไป

แม้ว่าโครงการครอสโอเวอร์ AI + Web3 ในปัจจุบันจะยังอยู่ในช่วงเริ่มต้นและเผชิญกับความท้าทายมากมาย แต่ก็นํามาซึ่งข้อดีหลายประการ ตัวอย่างเช่นผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจมีข้อบกพร่องบางประการ แต่ลดการพึ่งพาสถาบันแบบรวมศูนย์ให้ความโปร่งใสและการตรวจสอบที่มากขึ้นและเปิดใช้งานการมีส่วนร่วมและนวัตกรรมที่กว้างขึ้น สําหรับกรณีการใช้งานเฉพาะและความต้องการของผู้ใช้ผลิตภัณฑ์พลังงานการประมวลผลแบบกระจายอํานาจอาจเป็นตัวเลือกที่มีค่า เช่นเดียวกับการรวบรวมข้อมูล โครงการรวบรวมข้อมูลแบบกระจายอํานาจมีข้อได้เปรียบเช่นการลดการพึ่งพาแหล่งข้อมูลเดียวให้ความครอบคลุมข้อมูลที่กว้างขึ้นและส่งเสริมความหลากหลายและการรวมข้อมูล ในทางปฏิบัติจําเป็นต้องสร้างสมดุลระหว่างข้อดีและข้อเสียเหล่านี้และใช้มาตรการการจัดการและทางเทคนิคที่เหมาะสมเพื่อเอาชนะความท้าทายเพื่อให้แน่ใจว่าโครงการรวบรวมข้อมูลแบบกระจายอํานาจมีผลกระทบเชิงบวกต่อการพัฒนา AI

โดยรวมแล้วการรวม AI + Web3 มอบความเป็นไปได้ที่ไม่มีที่สิ้นสุดสําหรับนวัตกรรมทางเทคโนโลยีในอนาคตและการพัฒนาเศรษฐกิจ ด้วยการรวมการวิเคราะห์อัจฉริยะและความสามารถในการตัดสินใจของ AI เข้ากับลักษณะการกระจายอํานาจและผู้ใช้อิสระของ Web3 เชื่อว่าเราสามารถสร้างระบบเศรษฐกิจและสังคมที่ชาญฉลาดเปิดกว้างและเป็นธรรมมากขึ้น

ข้อจํากัดความรับผิดชอบ:

  1. บทความนี้พิมพ์ซ้ําจาก [Ryze Labs] ลิขสิทธิ์ทั้งหมดเป็นของผู้เขียนต้นฉบับ [Fred] หากมีการคัดค้านการพิมพ์ซ้ํานี้ โปรดติดต่อทีม Gate Learn และพวกเขาจะจัดการทันที
  2. ข้อจํากัดความรับผิดชอบความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนและไม่ถือเป็นคําแนะนําการลงทุนใด ๆ
  3. การแปลบทความเป็นภาษาอื่นทําโดยทีม Gate Learn ห้ามคัดลอก แจกจ่าย หรือลอกเลียนแบบบทความที่แปล
แล้ว เว้นแต่จะกล่าวถึง
เริ่มตอนนี้
สมัครและรับรางวัล
$100