Integrasi dan Perkembangan AI dengan Web3: Status, Tantangan, dan Prospek
I. Pendahuluan: Tinjauan Perkembangan AI+Web3
Dalam beberapa tahun terakhir, kemajuan pesat dalam teknologi kecerdasan buatan (AI) dan Web3 telah menarik perhatian luas di seluruh dunia. AI telah mencapai terobosan signifikan dalam bidang pengenalan wajah, pemrosesan bahasa alami, dan pembelajaran mesin, membawa perubahan dan inovasi besar di berbagai sektor. Pada tahun 2023, ukuran pasar industri AI mencapai 200 miliar dolar, melahirkan perusahaan-perusahaan unggulan seperti OpenAI, Character.AI, dan Midjourney.
Sementara itu, Web3 sebagai model jaringan yang muncul, sedang mengubah pemahaman dan cara orang menggunakan internet. Web3 didasarkan pada teknologi blockchain yang terdesentralisasi, melalui fungsi kontrak pintar, penyimpanan terdistribusi, dan verifikasi identitas terdesentralisasi, mewujudkan berbagi data yang dapat dikendalikan, otonomi pengguna, dan pembentukan mekanisme kepercayaan. Konsep inti Web3 adalah membebaskan data dari lembaga terpusat, memberikan pengguna kontrol atas data dan hak berbagi nilai. Saat ini, nilai pasar industri Web3 telah mencapai 25 triliun dolar AS, dengan proyek-proyek seperti Bitcoin, Ethereum, Solana, dan banyak lainnya bermunculan.
Kombinasi AI dan Web3 adalah bidang yang menjadi perhatian bersama bagi pengembang dan investor dari Timur dan Barat, bagaimana cara menggabungkan keduanya dengan baik adalah masalah yang layak untuk dieksplorasi. Artikel ini akan menganalisis keadaan perkembangan AI+Web3, dan membahas nilai dan dampak potensial dari penggabungan ini. Kami akan terlebih dahulu memperkenalkan konsep dasar AI dan Web3, kemudian menjelajahi hubungan antara keduanya. Selanjutnya, kami akan menganalisis keadaan proyek AI+Web3 saat ini, dan mendiskusikan secara mendalam keterbatasan dan tantangan yang dihadapi. Kami berharap dapat memberikan referensi dan wawasan yang berharga bagi para investor dan praktisi.
Dua, Cara AI Berinteraksi dengan Web3
Perkembangan AI dan Web3 ibarat dua sisi neraca, AI meningkatkan produktivitas, Web3 merevolusi hubungan produksi. Lalu, apa percikan yang bisa dihasilkan dari keduanya? Mari kita analisis tantangan yang dihadapi masing-masing dan ruang untuk peningkatan, kemudian kita diskusikan bagaimana saling membantu untuk mengatasi tantangan ini.
2.1 Tantangan yang Dihadapi oleh Industri AI
Untuk mengeksplorasi tantangan dalam industri AI, pertama-tama kita perlu memahami tiga elemen inti AI: daya komputasi, algoritma, dan data.
Kekuatan komputasi: merujuk pada kemampuan untuk melakukan perhitungan dan pemrosesan dalam skala besar. Tugas AI biasanya memerlukan pemrosesan data dalam jumlah besar dan perhitungan kompleks, seperti melatih model jaringan saraf dalam. Kemampuan komputasi yang tinggi dapat mempercepat pelatihan dan inferensi model, meningkatkan kinerja dan efisiensi sistem AI. Dalam beberapa tahun terakhir, perkembangan GPU dan chip AI khusus telah sangat mendorong kemajuan industri AI. Penyedia GPU seperti Nvidia menguasai sebagian besar pangsa pasar, mendapatkan keuntungan besar.
Algoritma: Komponen inti dari sistem AI, termasuk algoritma pembelajaran mesin tradisional dan algoritma pembelajaran mendalam. Pemilihan dan desain algoritma sangat penting untuk kinerja sistem AI. Algoritma yang terus diperbaiki dan diinnovasi dapat meningkatkan akurasi, ketahanan, dan kemampuan generalisasi sistem.
Data: Tugas utama sistem AI adalah mengekstrak pola dan aturan dari data melalui pembelajaran dan pelatihan. Kumpulan data yang kaya dapat memberikan informasi yang lebih komprehensif dan beragam, membantu model untuk lebih baik dalam generalisasi terhadap data yang belum pernah dilihat, serta lebih baik dalam memahami dan menyelesaikan masalah dunia nyata.
Setelah memahami elemen inti AI, mari kita lihat tantangan yang dihadapi AI di tiga bidang ini:
Dalam hal kekuatan komputasi, tugas AI memerlukan sumber daya komputasi yang besar untuk pelatihan dan inferensi model. Mendapatkan dan mengelola kekuatan komputasi dalam skala besar sangat mahal dan kompleks, terutama bagi perusahaan rintisan dan pengembang individu.
Dalam hal algoritma, meskipun pembelajaran mendalam telah mencapai kesuksesan besar, masih ada tantangan. Melatih jaringan saraf dalam membutuhkan data dan sumber daya komputasi yang sangat besar, dan interpretabilitas model untuk tugas tertentu masih kurang. Ketahanan algoritma dan kemampuan generalisasi juga merupakan masalah penting, karena kinerja model pada data yang tidak pernah dilihat sebelumnya mungkin tidak stabil.
Dalam hal data, masih ada tantangan untuk mendapatkan data yang berkualitas tinggi dan beragam. Data sensitif di beberapa bidang, seperti kesehatan, sulit diperoleh. Kualitas data, akurasi, dan pelabelan juga menjadi masalah; data yang tidak lengkap atau bias dapat menyebabkan perilaku atau kesalahan model. Selain itu, privasi data dan perlindungan keamanan juga merupakan pertimbangan penting.
Selain itu, kemampuan interpretasi dan transparansi model AI juga merupakan masalah yang menjadi perhatian publik. Beberapa aplikasi seperti keuangan, kesehatan, dan lain-lain memerlukan proses pengambilan keputusan yang dapat dijelaskan dan dilacak, sementara model pembelajaran mendalam yang ada sering kali kurang transparan.
Selain itu, banyak model bisnis proyek startup AI yang tidak jelas, yang juga membuat banyak pengusaha AI merasa bingung.
2.2 Tantangan yang Dihadapi oleh Industri Web3
Industri Web3 juga memiliki banyak tantangan yang perlu diatasi, baik dalam analisis data, pengalaman pengguna, maupun kerentanan kode kontrak pintar dan masalah keamanan, masih ada banyak ruang untuk peningkatan. AI sebagai alat untuk meningkatkan produktivitas, memiliki banyak potensi untuk berperan dalam aspek-aspek ini.
Pertama, peningkatan kemampuan analisis dan prediksi data: penerapan teknologi AI dalam analisis dan prediksi data memberikan dampak besar bagi industri Web3. Melalui analisis cerdas dan penambangan menggunakan algoritma AI, platform Web3 dapat mengekstrak informasi berharga dari data yang sangat besar, melakukan prediksi dan pengambilan keputusan yang lebih akurat. Ini memiliki arti penting untuk penilaian risiko, prediksi pasar, dan manajemen aset di bidang keuangan terdesentralisasi (DeFi).
Kedua, AI dapat meningkatkan pengalaman pengguna dan layanan yang dipersonalisasi: penerapan teknologi AI memungkinkan platform Web3 untuk memberikan pengalaman pengguna yang lebih baik dan layanan yang dipersonalisasi. Dengan menganalisis data pengguna dan pemodelan, dapat memberikan rekomendasi yang dipersonalisasi, layanan yang disesuaikan, serta pengalaman interaksi yang cerdas, meningkatkan partisipasi dan kepuasan pengguna, serta mendorong pengembangan ekosistem Web3.
Dalam hal keamanan dan perlindungan privasi, penerapan AI juga memiliki dampak yang mendalam pada industri Web3. Teknologi AI dapat digunakan untuk mendeteksi dan mencegah serangan siber, mengidentifikasi perilaku yang tidak biasa, dan memberikan jaminan keamanan yang lebih kuat. Selain itu, AI juga dapat diterapkan dalam perlindungan privasi data, melalui enkripsi data dan teknologi komputasi privasi untuk melindungi informasi pribadi pengguna. Dalam audit kontrak pintar, teknologi AI dapat digunakan untuk mengotomatiskan audit kontrak dan deteksi kerentanan, meningkatkan keamanan dan keandalan kontrak.
Dapat dilihat bahwa untuk tantangan yang dihadapi industri Web3 dan potensi ruang untuk peningkatan, AI dapat berpartisipasi dan memberikan dukungan dalam banyak aspek.
Tiga, Analisis Status Proyek AI+Web3
Proyek yang menggabungkan AI dan Web3 terutama berfokus pada dua aspek: memanfaatkan teknologi blockchain untuk meningkatkan kinerja proyek AI, dan menggunakan teknologi AI untuk mendukung peningkatan proyek Web3.
Di sekitar dua aspek ini, muncul banyak proyek yang menjelajahi jalan ini, termasuk Io.net, Gensyn, Ritual, dan lain-lain. Selanjutnya, kami akan menganalisis keadaan dan perkembangan dari berbagai sub-lintasan yang didukung AI untuk Web3 dan Web3 untuk AI.
3.1 Web3 mendukung AI
3.1.1 Kekuatan komputasi terdesentralisasi
Setelah OpenAI meluncurkan ChatGPT pada akhir 2022, gelombang kecerdasan buatan meledak, dengan jumlah pengguna mencapai 1 juta hanya 5 hari setelah peluncuran, dan dalam 2 bulan jumlah pengguna aktif bulanan mencapai 100 juta. Hingga November 2023, jumlah pengguna aktif mingguan mencapai 100 juta. Kehadiran ChatGPT membuat bidang AI berkembang pesat dari jalur yang kecil menjadi industri yang sangat diperhatikan.
Menurut laporan Trendforce, ChatGPT memerlukan 30.000 GPU NVIDIA A100 untuk beroperasi, dan di masa depan GPT-5 akan membutuhkan jumlah komputasi yang lebih besar. Ini juga membuat setiap perusahaan AI memulai perlombaan senjata, hanya dengan menguasai daya komputasi yang cukup, mereka dapat mempertahankan keunggulan dalam pertempuran AI, sehingga muncul fenomena kekurangan GPU.
Sebelum kebangkitan AI, pelanggan utama penyedia GPU terbesar, NVIDIA, terfokus pada tiga penyedia layanan cloud: AWS, Azure, dan GCP. Dengan kebangkitan AI, muncul banyak pembeli baru, termasuk perusahaan teknologi besar seperti Meta, Oracle, serta platform data lainnya dan perusahaan rintisan AI, yang semuanya bergabung dalam perang untuk mengumpulkan GPU guna melatih model AI.
Seperti yang disebutkan oleh Semi Analysis tahun lalu tentang "Kaya GPU dan Miskin GPU", beberapa perusahaan memiliki lebih dari 20.000 GPU A100/H100, dan anggota tim dapat menggunakan antara 100 hingga 1.000 GPU untuk proyek. Perusahaan-perusahaan ini adalah penyedia cloud atau membangun LLM mereka sendiri, termasuk OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, dan lainnya.
Namun, sebagian besar perusahaan adalah "kekurangan GPU" dan hanya dapat berjuang dengan jumlah GPU yang jauh lebih sedikit. Situasi ini tidak terbatas pada perusahaan rintisan, beberapa perusahaan AI terkenal seperti Hugging Face, Databricks, Together, bahkan Snowflake memiliki jumlah A100/H100 kurang dari 20K. Perusahaan-perusahaan ini memiliki talenta teknologi kelas dunia, tetapi terbatas oleh jumlah pasokan GPU, sehingga berada dalam posisi yang kurang menguntungkan dalam kompetisi AI.
Kekurangan ini tidak terbatas pada "orang-orang miskin GPU", bahkan pada akhir 2023, pemimpin AI OpenAI terpaksa menutup pendaftaran berbayar selama beberapa minggu karena tidak dapat memperoleh cukup GPU, sambil membeli lebih banyak pasokan GPU.
Dapat dilihat, permintaan GPU yang dihasilkan oleh perkembangan AI yang pesat mengalami ketidaksesuaian yang serius antara sisi permintaan dan pasokan, masalah kekurangan pasokan sangat mendesak.
Untuk mengatasi masalah ini, beberapa proyek Web3 mulai mencoba menggabungkan karakteristik teknologi Web3 untuk menyediakan layanan komputasi terdesentralisasi, termasuk Akash, Render, Gensyn, dan lainnya. Kesamaan proyek-proyek ini adalah mereka memberikan insentif token kepada pengguna untuk menyediakan daya GPU yang tidak terpakai, menjadi sisi penyedia daya, dan memberikan dukungan daya untuk klien AI.
Gambaran sisi penawaran terutama dibagi menjadi tiga kategori: penyedia layanan cloud, penambang cryptocurrency, perusahaan.
Penyedia layanan cloud termasuk penyedia layanan cloud besar ( seperti AWS, Azure, GCP ) serta penyedia layanan cloud GPU ( seperti Coreweave, Lambda, Crusoe dan lain-lain ), pengguna dapat menjual kembali daya komputasi penyedia layanan cloud yang tidak terpakai untuk mendapatkan pendapatan. Penambang kripto seiring dengan Ethereum beralih dari PoW ke PoS, daya komputasi GPU yang tidak terpakai juga menjadi sisi pasokan yang potensial. Selain itu, perusahaan besar seperti Tesla, Meta yang membeli banyak GPU karena strategi bisnis, juga dapat memanfaatkan daya komputasi GPU yang tidak terpakai sebagai sisi pasokan.
Saat ini, pemain di sektor ini secara umum dibagi menjadi dua kategori: satu menggunakan daya komputasi terdesentralisasi untuk inferensi AI, dan yang lainnya digunakan untuk pelatihan AI. Yang pertama seperti Render( meskipun fokus pada rendering, tetapi juga dapat digunakan untuk penyedia daya komputasi AI), Akash, Aethir, dan lainnya; yang kedua seperti io.net( mendukung inferensi dan pelatihan), Gensyn, perbedaan terbesar antara keduanya terletak pada kebutuhan daya komputasi yang berbeda.
Mari kita bahas proyek AI inference, proyek semacam ini menarik pengguna untuk berpartisipasi dalam penyediaan daya komputasi melalui insentif token, kemudian menyediakan layanan jaringan daya komputasi kepada sisi permintaan, untuk mencocokkan pasokan daya komputasi yang tidak terpakai. Inti dari proyek semacam ini adalah menarik penyedia melalui mekanisme insentif token, kemudian menarik pengguna untuk menggunakan, mewujudkan peluncuran dingin proyek dan mekanisme operasi inti, sehingga memperluas perkembangan lebih lanjut. Dalam siklus ini, sisi penyedia mendapatkan lebih banyak token yang bernilai, sisi permintaan mendapatkan layanan yang lebih murah dan lebih berkualitas, nilai token proyek dan pertumbuhan peserta dari kedua sisi permintaan dan penawaran tetap sejalan, dengan naiknya harga token, menarik lebih banyak peserta dan spekulan, membentuk penangkapan nilai.
Jenis lainnya adalah menggunakan kekuatan komputasi terdesentralisasi untuk pelatihan AI, seperti Gensyn, io.net(Pelatihan dan inferensi AI keduanya mendukung ). Logika operasional proyek-proyek ini tidak berbeda secara mendasar dari proyek inferensi AI, tetap menggunakan insentif token untuk menarik partisipasi dari sisi penawaran dalam menyediakan kekuatan komputasi, untuk digunakan oleh sisi permintaan.
io.net sebagai jaringan kekuatan komputasi terdesentralisasi, saat ini memiliki lebih dari 500.000 GPU, menunjukkan kinerja yang menonjol, telah mengintegrasikan kekuatan Render dan Filecoin, serta terus mengembangkan proyek ekosistem.
Gensyn memfasilitasi penugasan dan penghargaan tugas pembelajaran mesin melalui kontrak pintar, mewujudkan pelatihan AI. Biaya pelatihan pembelajaran mesin Gensyn sekitar 0,4 dolar per jam, jauh di bawah biaya lebih dari 2 dolar dari AWS dan GCP.
Sistem Gensyn mencakup empat pihak yang terlibat: pemberi, pelaksana, validator, dan pelapor.
Pengirim: Pengguna yang membutuhkan adalah konsumen tugas, menyediakan tugas yang akan dihitung, membayar untuk tugas pelatihan AI.
Pelaksana: Melaksanakan tugas pelatihan model, menghasilkan bukti penyelesaian tugas untuk diperiksa oleh verifikator
Validator: Menghubungkan proses pelatihan yang tidak deterministik dengan perhitungan linier yang deterministik, membandingkan bukti pelaksana dengan ambang batas yang diharapkan
Pelapor: memeriksa pekerjaan validator, mengajukan keberatan saat menemukan masalah untuk mendapatkan imbalan
Gensyn berharap untuk menjadi protokol komputasi yang sangat besar dan efisien secara ekonomi untuk model pembelajaran mendalam global.
Namun, jika kita melihat keseluruhan jalur ini, mengapa sebagian besar proyek memilih untuk menggunakan kekuatan komputasi terdesentralisasi untuk inferensi AI daripada pelatihan?
Di sini membantu teman-teman yang tidak mengerti tentang pelatihan dan inferensi AI untuk memperkenalkan perbedaan antara keduanya:
Pelatihan AI: Jika kita membandingkan kecerdasan buatan dengan seorang siswa, pelatihan mirip dengan memberikan AI banyak pengetahuan, contoh ( yaitu data ), AI belajar dari sana. Karena esensi pembelajaran memerlukan pemahaman dan mengingat banyak informasi, proses ini membutuhkan banyak daya komputasi dan waktu.
AI
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
5
Posting ulang
Bagikan
Komentar
0/400
MechanicalMartel
· 4jam yang lalu
Tidak masuk akal, nilai estimasinya bisa setinggi ini.
Lihat AsliBalas0
SmartContractPhobia
· 08-10 10:26
Terlalu berlebihan, di baliknya semua adalah modal.
Lihat AsliBalas0
SadMoneyMeow
· 08-10 10:17
Dompet lagi-lagi akan dikuras.
Lihat AsliBalas0
ApeEscapeArtist
· 08-10 10:14
Ini sudah jadi pembicaraan umum, apa ada terobosan baru?
Integrasi AI dan Web3: Analisis Status, Tantangan, dan Prospek Perkembangan
Integrasi dan Perkembangan AI dengan Web3: Status, Tantangan, dan Prospek
I. Pendahuluan: Tinjauan Perkembangan AI+Web3
Dalam beberapa tahun terakhir, kemajuan pesat dalam teknologi kecerdasan buatan (AI) dan Web3 telah menarik perhatian luas di seluruh dunia. AI telah mencapai terobosan signifikan dalam bidang pengenalan wajah, pemrosesan bahasa alami, dan pembelajaran mesin, membawa perubahan dan inovasi besar di berbagai sektor. Pada tahun 2023, ukuran pasar industri AI mencapai 200 miliar dolar, melahirkan perusahaan-perusahaan unggulan seperti OpenAI, Character.AI, dan Midjourney.
Sementara itu, Web3 sebagai model jaringan yang muncul, sedang mengubah pemahaman dan cara orang menggunakan internet. Web3 didasarkan pada teknologi blockchain yang terdesentralisasi, melalui fungsi kontrak pintar, penyimpanan terdistribusi, dan verifikasi identitas terdesentralisasi, mewujudkan berbagi data yang dapat dikendalikan, otonomi pengguna, dan pembentukan mekanisme kepercayaan. Konsep inti Web3 adalah membebaskan data dari lembaga terpusat, memberikan pengguna kontrol atas data dan hak berbagi nilai. Saat ini, nilai pasar industri Web3 telah mencapai 25 triliun dolar AS, dengan proyek-proyek seperti Bitcoin, Ethereum, Solana, dan banyak lainnya bermunculan.
Kombinasi AI dan Web3 adalah bidang yang menjadi perhatian bersama bagi pengembang dan investor dari Timur dan Barat, bagaimana cara menggabungkan keduanya dengan baik adalah masalah yang layak untuk dieksplorasi. Artikel ini akan menganalisis keadaan perkembangan AI+Web3, dan membahas nilai dan dampak potensial dari penggabungan ini. Kami akan terlebih dahulu memperkenalkan konsep dasar AI dan Web3, kemudian menjelajahi hubungan antara keduanya. Selanjutnya, kami akan menganalisis keadaan proyek AI+Web3 saat ini, dan mendiskusikan secara mendalam keterbatasan dan tantangan yang dihadapi. Kami berharap dapat memberikan referensi dan wawasan yang berharga bagi para investor dan praktisi.
Dua, Cara AI Berinteraksi dengan Web3
Perkembangan AI dan Web3 ibarat dua sisi neraca, AI meningkatkan produktivitas, Web3 merevolusi hubungan produksi. Lalu, apa percikan yang bisa dihasilkan dari keduanya? Mari kita analisis tantangan yang dihadapi masing-masing dan ruang untuk peningkatan, kemudian kita diskusikan bagaimana saling membantu untuk mengatasi tantangan ini.
2.1 Tantangan yang Dihadapi oleh Industri AI
Untuk mengeksplorasi tantangan dalam industri AI, pertama-tama kita perlu memahami tiga elemen inti AI: daya komputasi, algoritma, dan data.
Kekuatan komputasi: merujuk pada kemampuan untuk melakukan perhitungan dan pemrosesan dalam skala besar. Tugas AI biasanya memerlukan pemrosesan data dalam jumlah besar dan perhitungan kompleks, seperti melatih model jaringan saraf dalam. Kemampuan komputasi yang tinggi dapat mempercepat pelatihan dan inferensi model, meningkatkan kinerja dan efisiensi sistem AI. Dalam beberapa tahun terakhir, perkembangan GPU dan chip AI khusus telah sangat mendorong kemajuan industri AI. Penyedia GPU seperti Nvidia menguasai sebagian besar pangsa pasar, mendapatkan keuntungan besar.
Algoritma: Komponen inti dari sistem AI, termasuk algoritma pembelajaran mesin tradisional dan algoritma pembelajaran mendalam. Pemilihan dan desain algoritma sangat penting untuk kinerja sistem AI. Algoritma yang terus diperbaiki dan diinnovasi dapat meningkatkan akurasi, ketahanan, dan kemampuan generalisasi sistem.
Data: Tugas utama sistem AI adalah mengekstrak pola dan aturan dari data melalui pembelajaran dan pelatihan. Kumpulan data yang kaya dapat memberikan informasi yang lebih komprehensif dan beragam, membantu model untuk lebih baik dalam generalisasi terhadap data yang belum pernah dilihat, serta lebih baik dalam memahami dan menyelesaikan masalah dunia nyata.
Setelah memahami elemen inti AI, mari kita lihat tantangan yang dihadapi AI di tiga bidang ini:
Dalam hal kekuatan komputasi, tugas AI memerlukan sumber daya komputasi yang besar untuk pelatihan dan inferensi model. Mendapatkan dan mengelola kekuatan komputasi dalam skala besar sangat mahal dan kompleks, terutama bagi perusahaan rintisan dan pengembang individu.
Dalam hal algoritma, meskipun pembelajaran mendalam telah mencapai kesuksesan besar, masih ada tantangan. Melatih jaringan saraf dalam membutuhkan data dan sumber daya komputasi yang sangat besar, dan interpretabilitas model untuk tugas tertentu masih kurang. Ketahanan algoritma dan kemampuan generalisasi juga merupakan masalah penting, karena kinerja model pada data yang tidak pernah dilihat sebelumnya mungkin tidak stabil.
Dalam hal data, masih ada tantangan untuk mendapatkan data yang berkualitas tinggi dan beragam. Data sensitif di beberapa bidang, seperti kesehatan, sulit diperoleh. Kualitas data, akurasi, dan pelabelan juga menjadi masalah; data yang tidak lengkap atau bias dapat menyebabkan perilaku atau kesalahan model. Selain itu, privasi data dan perlindungan keamanan juga merupakan pertimbangan penting.
Selain itu, kemampuan interpretasi dan transparansi model AI juga merupakan masalah yang menjadi perhatian publik. Beberapa aplikasi seperti keuangan, kesehatan, dan lain-lain memerlukan proses pengambilan keputusan yang dapat dijelaskan dan dilacak, sementara model pembelajaran mendalam yang ada sering kali kurang transparan.
Selain itu, banyak model bisnis proyek startup AI yang tidak jelas, yang juga membuat banyak pengusaha AI merasa bingung.
2.2 Tantangan yang Dihadapi oleh Industri Web3
Industri Web3 juga memiliki banyak tantangan yang perlu diatasi, baik dalam analisis data, pengalaman pengguna, maupun kerentanan kode kontrak pintar dan masalah keamanan, masih ada banyak ruang untuk peningkatan. AI sebagai alat untuk meningkatkan produktivitas, memiliki banyak potensi untuk berperan dalam aspek-aspek ini.
Pertama, peningkatan kemampuan analisis dan prediksi data: penerapan teknologi AI dalam analisis dan prediksi data memberikan dampak besar bagi industri Web3. Melalui analisis cerdas dan penambangan menggunakan algoritma AI, platform Web3 dapat mengekstrak informasi berharga dari data yang sangat besar, melakukan prediksi dan pengambilan keputusan yang lebih akurat. Ini memiliki arti penting untuk penilaian risiko, prediksi pasar, dan manajemen aset di bidang keuangan terdesentralisasi (DeFi).
Kedua, AI dapat meningkatkan pengalaman pengguna dan layanan yang dipersonalisasi: penerapan teknologi AI memungkinkan platform Web3 untuk memberikan pengalaman pengguna yang lebih baik dan layanan yang dipersonalisasi. Dengan menganalisis data pengguna dan pemodelan, dapat memberikan rekomendasi yang dipersonalisasi, layanan yang disesuaikan, serta pengalaman interaksi yang cerdas, meningkatkan partisipasi dan kepuasan pengguna, serta mendorong pengembangan ekosistem Web3.
Dalam hal keamanan dan perlindungan privasi, penerapan AI juga memiliki dampak yang mendalam pada industri Web3. Teknologi AI dapat digunakan untuk mendeteksi dan mencegah serangan siber, mengidentifikasi perilaku yang tidak biasa, dan memberikan jaminan keamanan yang lebih kuat. Selain itu, AI juga dapat diterapkan dalam perlindungan privasi data, melalui enkripsi data dan teknologi komputasi privasi untuk melindungi informasi pribadi pengguna. Dalam audit kontrak pintar, teknologi AI dapat digunakan untuk mengotomatiskan audit kontrak dan deteksi kerentanan, meningkatkan keamanan dan keandalan kontrak.
Dapat dilihat bahwa untuk tantangan yang dihadapi industri Web3 dan potensi ruang untuk peningkatan, AI dapat berpartisipasi dan memberikan dukungan dalam banyak aspek.
Tiga, Analisis Status Proyek AI+Web3
Proyek yang menggabungkan AI dan Web3 terutama berfokus pada dua aspek: memanfaatkan teknologi blockchain untuk meningkatkan kinerja proyek AI, dan menggunakan teknologi AI untuk mendukung peningkatan proyek Web3.
Di sekitar dua aspek ini, muncul banyak proyek yang menjelajahi jalan ini, termasuk Io.net, Gensyn, Ritual, dan lain-lain. Selanjutnya, kami akan menganalisis keadaan dan perkembangan dari berbagai sub-lintasan yang didukung AI untuk Web3 dan Web3 untuk AI.
3.1 Web3 mendukung AI
3.1.1 Kekuatan komputasi terdesentralisasi
Setelah OpenAI meluncurkan ChatGPT pada akhir 2022, gelombang kecerdasan buatan meledak, dengan jumlah pengguna mencapai 1 juta hanya 5 hari setelah peluncuran, dan dalam 2 bulan jumlah pengguna aktif bulanan mencapai 100 juta. Hingga November 2023, jumlah pengguna aktif mingguan mencapai 100 juta. Kehadiran ChatGPT membuat bidang AI berkembang pesat dari jalur yang kecil menjadi industri yang sangat diperhatikan.
Menurut laporan Trendforce, ChatGPT memerlukan 30.000 GPU NVIDIA A100 untuk beroperasi, dan di masa depan GPT-5 akan membutuhkan jumlah komputasi yang lebih besar. Ini juga membuat setiap perusahaan AI memulai perlombaan senjata, hanya dengan menguasai daya komputasi yang cukup, mereka dapat mempertahankan keunggulan dalam pertempuran AI, sehingga muncul fenomena kekurangan GPU.
Sebelum kebangkitan AI, pelanggan utama penyedia GPU terbesar, NVIDIA, terfokus pada tiga penyedia layanan cloud: AWS, Azure, dan GCP. Dengan kebangkitan AI, muncul banyak pembeli baru, termasuk perusahaan teknologi besar seperti Meta, Oracle, serta platform data lainnya dan perusahaan rintisan AI, yang semuanya bergabung dalam perang untuk mengumpulkan GPU guna melatih model AI.
Seperti yang disebutkan oleh Semi Analysis tahun lalu tentang "Kaya GPU dan Miskin GPU", beberapa perusahaan memiliki lebih dari 20.000 GPU A100/H100, dan anggota tim dapat menggunakan antara 100 hingga 1.000 GPU untuk proyek. Perusahaan-perusahaan ini adalah penyedia cloud atau membangun LLM mereka sendiri, termasuk OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, dan lainnya.
Namun, sebagian besar perusahaan adalah "kekurangan GPU" dan hanya dapat berjuang dengan jumlah GPU yang jauh lebih sedikit. Situasi ini tidak terbatas pada perusahaan rintisan, beberapa perusahaan AI terkenal seperti Hugging Face, Databricks, Together, bahkan Snowflake memiliki jumlah A100/H100 kurang dari 20K. Perusahaan-perusahaan ini memiliki talenta teknologi kelas dunia, tetapi terbatas oleh jumlah pasokan GPU, sehingga berada dalam posisi yang kurang menguntungkan dalam kompetisi AI.
Kekurangan ini tidak terbatas pada "orang-orang miskin GPU", bahkan pada akhir 2023, pemimpin AI OpenAI terpaksa menutup pendaftaran berbayar selama beberapa minggu karena tidak dapat memperoleh cukup GPU, sambil membeli lebih banyak pasokan GPU.
Dapat dilihat, permintaan GPU yang dihasilkan oleh perkembangan AI yang pesat mengalami ketidaksesuaian yang serius antara sisi permintaan dan pasokan, masalah kekurangan pasokan sangat mendesak.
Untuk mengatasi masalah ini, beberapa proyek Web3 mulai mencoba menggabungkan karakteristik teknologi Web3 untuk menyediakan layanan komputasi terdesentralisasi, termasuk Akash, Render, Gensyn, dan lainnya. Kesamaan proyek-proyek ini adalah mereka memberikan insentif token kepada pengguna untuk menyediakan daya GPU yang tidak terpakai, menjadi sisi penyedia daya, dan memberikan dukungan daya untuk klien AI.
Gambaran sisi penawaran terutama dibagi menjadi tiga kategori: penyedia layanan cloud, penambang cryptocurrency, perusahaan.
Penyedia layanan cloud termasuk penyedia layanan cloud besar ( seperti AWS, Azure, GCP ) serta penyedia layanan cloud GPU ( seperti Coreweave, Lambda, Crusoe dan lain-lain ), pengguna dapat menjual kembali daya komputasi penyedia layanan cloud yang tidak terpakai untuk mendapatkan pendapatan. Penambang kripto seiring dengan Ethereum beralih dari PoW ke PoS, daya komputasi GPU yang tidak terpakai juga menjadi sisi pasokan yang potensial. Selain itu, perusahaan besar seperti Tesla, Meta yang membeli banyak GPU karena strategi bisnis, juga dapat memanfaatkan daya komputasi GPU yang tidak terpakai sebagai sisi pasokan.
Saat ini, pemain di sektor ini secara umum dibagi menjadi dua kategori: satu menggunakan daya komputasi terdesentralisasi untuk inferensi AI, dan yang lainnya digunakan untuk pelatihan AI. Yang pertama seperti Render( meskipun fokus pada rendering, tetapi juga dapat digunakan untuk penyedia daya komputasi AI), Akash, Aethir, dan lainnya; yang kedua seperti io.net( mendukung inferensi dan pelatihan), Gensyn, perbedaan terbesar antara keduanya terletak pada kebutuhan daya komputasi yang berbeda.
Mari kita bahas proyek AI inference, proyek semacam ini menarik pengguna untuk berpartisipasi dalam penyediaan daya komputasi melalui insentif token, kemudian menyediakan layanan jaringan daya komputasi kepada sisi permintaan, untuk mencocokkan pasokan daya komputasi yang tidak terpakai. Inti dari proyek semacam ini adalah menarik penyedia melalui mekanisme insentif token, kemudian menarik pengguna untuk menggunakan, mewujudkan peluncuran dingin proyek dan mekanisme operasi inti, sehingga memperluas perkembangan lebih lanjut. Dalam siklus ini, sisi penyedia mendapatkan lebih banyak token yang bernilai, sisi permintaan mendapatkan layanan yang lebih murah dan lebih berkualitas, nilai token proyek dan pertumbuhan peserta dari kedua sisi permintaan dan penawaran tetap sejalan, dengan naiknya harga token, menarik lebih banyak peserta dan spekulan, membentuk penangkapan nilai.
Jenis lainnya adalah menggunakan kekuatan komputasi terdesentralisasi untuk pelatihan AI, seperti Gensyn, io.net(Pelatihan dan inferensi AI keduanya mendukung ). Logika operasional proyek-proyek ini tidak berbeda secara mendasar dari proyek inferensi AI, tetap menggunakan insentif token untuk menarik partisipasi dari sisi penawaran dalam menyediakan kekuatan komputasi, untuk digunakan oleh sisi permintaan.
io.net sebagai jaringan kekuatan komputasi terdesentralisasi, saat ini memiliki lebih dari 500.000 GPU, menunjukkan kinerja yang menonjol, telah mengintegrasikan kekuatan Render dan Filecoin, serta terus mengembangkan proyek ekosistem.
Gensyn memfasilitasi penugasan dan penghargaan tugas pembelajaran mesin melalui kontrak pintar, mewujudkan pelatihan AI. Biaya pelatihan pembelajaran mesin Gensyn sekitar 0,4 dolar per jam, jauh di bawah biaya lebih dari 2 dolar dari AWS dan GCP.
Sistem Gensyn mencakup empat pihak yang terlibat: pemberi, pelaksana, validator, dan pelapor.
Gensyn berharap untuk menjadi protokol komputasi yang sangat besar dan efisien secara ekonomi untuk model pembelajaran mendalam global.
Namun, jika kita melihat keseluruhan jalur ini, mengapa sebagian besar proyek memilih untuk menggunakan kekuatan komputasi terdesentralisasi untuk inferensi AI daripada pelatihan?
Di sini membantu teman-teman yang tidak mengerti tentang pelatihan dan inferensi AI untuk memperkenalkan perbedaan antara keduanya:
Pelatihan AI: Jika kita membandingkan kecerdasan buatan dengan seorang siswa, pelatihan mirip dengan memberikan AI banyak pengetahuan, contoh ( yaitu data ), AI belajar dari sana. Karena esensi pembelajaran memerlukan pemahaman dan mengingat banyak informasi, proses ini membutuhkan banyak daya komputasi dan waktu.
AI