AI kavramına sahip Web3 projeleri birincil ve ikincil pazarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşviklerin kullanılması, veri, depolama ve hesaplama arasında; aynı zamanda açık kaynaklı modellerin ve AI Ajanlarının merkeziyetsiz pazarının kurulmasıyla ortaya çıkmaktadır.
AI, Web3 sektöründe öncelikle zincir üzerindeki finans (kripto ödemeleri, işlemler, veri analizi) ve geliştirme desteği için kullanılmaktadır.
AI+Web3'ün faydası iki tarafın tamamlayıcılığında yatmaktadır: Web3, AI merkezileşmesiyle mücadele etme umudu taşırken, AI'nın Web3'ün sınırlarını aşmasına yardımcı olması beklenmektedir.
Giriş
Son iki yılda, AI gelişimi adeta hızlandırılmış durumda. Chatgpt tarafından başlatılan bu dalga, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da büyük bir sarsıntı yarattı.
AI konseptinin desteğiyle, yavaşlayan kripto pazarındaki finansman belirgin bir şekilde arttı. Sadece 2024'ün ilk yarısında, 64 Web3+AI projesi finansman sağladı ve yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar ile en yüksek finansman miktarını elde etti.
İkinci el pazar daha da canlı, Coingecko verilerine göre, sadece bir yıl içinde AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik ticaret hacmi neredeyse 8,6 milyar dolar. Ana akım AI teknolojisindeki ilerlemelerin sağladığı faydalar belirgin, OpenAI'nin Sora metin-video modeli yayınladıktan sonra, AI sektöründeki ortalama fiyat %151 arttı. AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konseptine sahip MemeCoin - GOAT hızla popüler oldu ve 1,4 milyar dolar değerlemeye ulaştı, AI Meme dalgasını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şimdiki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına ayak uyduramaz hale geldi.
AI+Web3, bu sıcak para, fırsatlar ve gelecek hayalleriyle dolu terim kombinasyonu, kaçınılmaz olarak bir sermaye tarafından düzenlenen bir evlilik olarak görülüyor. Bu görkemli elbisenin altında, gerçekten spekülatörlerin sahası mı, yoksa şafak patlamasının eşiği mi olduğunu ayırt etmek oldukça zor görünüyor?
Bu soruyu yanıtlamak için, her iki taraf için de kritik bir düşünce, bu durumda diğer tarafın durumu daha iyi hale getirip getiremeyeceğidir. Diğer tarafın modelinden faydalanmak mümkün mü? Bu yazıda, önceki çalışmaların üzerine çıkarak bu durumu incelemeye çalışıyoruz: Web3, AI teknolojisi yığınındaki her aşamada nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar getirebilir?
Bölüm.1 AI yığınında Web3'ün ne gibi fırsatları var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Daha sade bir dille süreci ifade etmek gerekirse: "Büyük model" insan beynine benzer; erken aşamalarda bu beyin, dünyaya yeni gelmiş bir bebeğe aittir. Bu bebek, dünyayı anlamak için çevresindeki muazzam bilgileri gözlemleyip içselleştirmelidir; işte bu, verilerin "toplanma" aşamasıdır. Bilgisayarların insanın görme, işitme gibi birçok duyusuna sahip olmaması nedeniyle, eğitim öncesinde dışarıdaki büyük ölçekli etiketlenmemiş bilgiler, bilgisayarların anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" aracılığıyla anlama ve tahmin yeteneğine sahip bir model oluşturdu, bu da bebeklerin dış dünyayı yavaş yavaş anlama ve öğrenme sürecine benzer. Modelin parametreleri, bir bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar yavaş yavaş büyüdüklerinde ve konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "akıl yürütme" aşamasına benzerdir; model, yeni dil ve metin girdileri üzerinde tahmin ve analiz yapabilir. Bebekler, dil yetenekleri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra akıl yürütme aşamasında çeşitli belirli görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına da benzer.
AI Ajanı, büyük modelin bir sonraki şekline daha yakın hale geliyor - bağımsız görevleri yerine getirebilen ve karmaşık hedeflere ulaşabilen, sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya sahip ve dünyayla etkileşimde bulunmak için araçlar kullanabilen.
Şu anda, AI'nın çeşitli katmanlardaki acı noktalarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmaya başlamıştır.
Birinci, Temel Kat: Güç ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerjidir.
Bir örnek, Meta'nın LLAMA3'ün eğitimini tamamlamak için 30 gün boyunca NVIDIA tarafından üretilen 16.000 adet H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış üst düzey bir grafik işleme birimidir). Sonuncusunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı (GPU + ağ çipi) gerektiriyor, aynı zamanda aylık eğitim için 1.6 milyar kilowatt saat enerji tüketimi gerçekleşiyor ve enerji harcaması her ay neredeyse 20 milyon dolar.
AI hesaplama gücünün rahatlatılması, Web3'ün AI ile kesiştiği ilk alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgili. Şu anda DePin Ninja veri sitesi 1400'den fazla projeyi sergilemekte, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projeleri içermektedir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde, boşta olan GPU kaynaklarına sahip bireylerin veya varlıkların hesaplama güçlerini katkıda bulunmalarına olanak tanır. Bu, Uber veya Airbnb benzeri alıcı ve satıcıların çevrimiçi pazarını kullanarak, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar böylece daha düşük maliyetle verimli hesaplama kaynakları elde eder; aynı zamanda, staking mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlar meydana gelirse, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını da garanti eder.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplamak: Sağlayıcılar, esas olarak üçüncü taraf bağımsız orta ve küçük ölçekli veri merkezleri, kripto madencilik tesisleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencileri gibi. Şu anda, daha düşük bir başlangıç eşiğine sahip cihazlar başlatmaya adanmış projeler de bulunmaktadır; örneğin, exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımına dayalı bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknolojik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; Aethir, düşük gecikmeli render işleri ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı bir şekilde eğitmeyecekler, sadece birkaç önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçecekler ve bu senaryolar doğal olarak dağıtılmış atıl hesaplama kaynaklarına uygun.
Merkeziyetsiz mülkiyet: Blockchain'in teknik anlamı, kaynak sahiplerinin kaynaklar üzerindeki kontrolünü her zaman koruması, talebe göre esnek bir şekilde ayarlama yapabilmesi ve aynı zamanda kazanç elde etmesidir.
Veri
Veri, AI'nin temelidir. Eğer veri yoksa, hesaplama su yüzeyindeki bir bitki gibi faydasızdır ve veri ile model arasındaki ilişki, "Garbage in, Garbage out" atasözündeki gibi, verinin miktarı ve girdi kalitesi, nihai modelin çıktısının kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani özelliklerini belirler. Şu anda, AI'nın veri talep sıkıntısı esas olarak aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık verilere göre, OpenAI'nin GPT-4'ü eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI ile çeşitli endüstrilerin birleşmesiyle, veri güncelliği, veri çeşitliliği, dikey verilerin uzmanlığı, sosyal medya gibi yeni veri kaynaklarının duygularının entegrasyonu kaliteye yeni gereksinimler getirdi.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler, kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri setlerinin toplanmasına sınırlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Kamuya açık verilere göre, AI şirketlerinin %30'dan fazlası Ar-Ge maliyetlerinin temel veri toplama ve işleme için harcanmaktadır.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri toplama: Gerçek dünya verilerini ücretsiz olarak sağlama yeteneği hızla tükeniyor, AI şirketlerinin veri için yaptığı harcama her yıl artıyor. Ancak bu harcama, verinin gerçek katkıcılarına geri dönmüyor; platform tamamen verinin sağladığı değer yaratımından yararlanıyor.
Gerçekten katkı sağlayan kullanıcıların, veri yaratımından elde edilen değere katılmaları ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcılara daha özel ve değerli verilere ulaşmalarını sağlamak, Web3'ün vizyonudur.
Grass, kullanıcıların Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak tüm internetten gerçek zamanlı verileri yakalamasını sağlayan merkeziyetsiz bir veri katmanı ve ağdır ve token ödülleri alır;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, gezinme alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir veri akış likidite havuzuna (DLP) yüklemelerine ve bu verileri belirli üçüncü şahıslara kullanmaları için yetkilendirip yetkilendirmeme konusunda esnek seçim yapmalarına olanak tanıyan benzersiz bir DLP konsepti tanıtmaktadır;
PublicAI'de, kullanıcılar X üzerinde #AI或#Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Veri Ön İşleme: AI veri işleme sürecinde, toplanan verilerin genellikle gürültülü ve hatalar içermesi nedeniyle, model eğitimi öncesinde temizlenmesi ve kullanılabilir bir formata dönüştürülmesi gerekmektedir; bu işlem standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içermektedir. Bu aşama, AI sektöründeki nadir insan müdahalesi yapılan aşamalardan biridir ve veri etiketleme uzmanı gibi bir mesleği doğurmuştur. Modelin veri kalitesi talepleri arttıkça, veri etiketleme uzmanlarının gereksinimleri de yükselmektedir ve bu görev doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
Şu anda, Grass ve OpenLayer veri etiketleme bu kritik aşamayı eklemeyi düşünüyor.
Synesis, kullanıcıların etiketlenmiş veriler, notlar veya diğer biçimlerde girdi sağlayarak ödül kazanabileceği veri kalitesine vurgu yaparak "Train2earn" konseptini ortaya koydu.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırıyor ve kullanıcılara daha fazla puan kazanmak için puan stake etme imkanı sunuyor.
Veri gizliliği ve güvenliği: Açıklığa kavuşturulması gereken, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini içerirken, veri güvenliği, veri bilgilerini yetkisiz erişim, yok etme ve hırsızlığa karşı korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama senaryoları iki alanda kendini göstermektedir: (1) Hassas verilerin eğitimi; (2) Veri işbirliği: Birden fazla veri sahibi, orijinal verilerini paylaşmadan AI eğitimine ortak olarak katılabilir.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir yürütme ortamı ( TEE ), örneğin Super Protocol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojileri (zk), Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturmasına olanak tanır. Bu, kullanıcıların hassas bilgileri ifşa etmeden harici web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasını sağlar.
Ancak, şu anda bu alan hala erken aşamada, çoğu proje hala keşif aşamasında, mevcut bir zorluk ise hesaplama maliyetlerinin çok yüksek olmasıdır, bazı örnekler şunlardır:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını üretmek için yaklaşık 80 dakika gerektirir.
Modulus Labs'ın verilerine göre, zkML'nin maliyeti saf hesaplamalardan 1000 kat daha fazladır.
Veri Depolama: Verilere sahip olduktan sonra, zincir üzerinde verileri depolayacak bir yere ve bu verilerle oluşturulan LLM'ye de ihtiyaç vardır. Veri kullanılabilirliğini (DA) temel sorun olarak ele alarak, Ethereum'un Danksharding yükseltmesi öncesinde, işlem hacmi 0.08MB idi. Bu arada, AI modellerinin eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50 ila 100GB veri işlem hacmine ihtiyaç duyar. Bu büyüklükteki fark, mevcut zincir çözümlerinin "kaynak yoğun AI uygulamalarıyla" karşılaştığında yetersiz kalmasına neden olmaktadır.
0g.AI bu kategorinin temsilci projesidir. AI yüksek performans gereksinimleri için tasarlanmış merkezi depolama çözümüdür, bununla ilgili
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Likes
Reward
12
5
Repost
Share
Comment
0/400
RektCoaster
· 8h ago
Artık kavramları boşuna gündeme getirmeyin... Önce uygulanabilir bir uygulama geliştirin.
View OriginalReply0
degenonymous
· 8h ago
insanları enayi yerine koymak geçmiş enayiler ancak hayal kurabilir.
View OriginalReply0
not_your_keys
· 8h ago
Yine soğuk pilav kızartılıyor, Emiciler Tarafından Oyuna Getirilmek.
AI ve Web3 birleşiminin fırsatları ve zorlukları: Veriden Bilgi İşlem Gücüne tam yığın yenilik
AI+Web3: Kuleler ve Meydanlar
Kısa Özet
AI kavramına sahip Web3 projeleri birincil ve ikincil pazarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşviklerin kullanılması, veri, depolama ve hesaplama arasında; aynı zamanda açık kaynaklı modellerin ve AI Ajanlarının merkeziyetsiz pazarının kurulmasıyla ortaya çıkmaktadır.
AI, Web3 sektöründe öncelikle zincir üzerindeki finans (kripto ödemeleri, işlemler, veri analizi) ve geliştirme desteği için kullanılmaktadır.
AI+Web3'ün faydası iki tarafın tamamlayıcılığında yatmaktadır: Web3, AI merkezileşmesiyle mücadele etme umudu taşırken, AI'nın Web3'ün sınırlarını aşmasına yardımcı olması beklenmektedir.
Giriş
Son iki yılda, AI gelişimi adeta hızlandırılmış durumda. Chatgpt tarafından başlatılan bu dalga, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da büyük bir sarsıntı yarattı.
AI konseptinin desteğiyle, yavaşlayan kripto pazarındaki finansman belirgin bir şekilde arttı. Sadece 2024'ün ilk yarısında, 64 Web3+AI projesi finansman sağladı ve yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar ile en yüksek finansman miktarını elde etti.
İkinci el pazar daha da canlı, Coingecko verilerine göre, sadece bir yıl içinde AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik ticaret hacmi neredeyse 8,6 milyar dolar. Ana akım AI teknolojisindeki ilerlemelerin sağladığı faydalar belirgin, OpenAI'nin Sora metin-video modeli yayınladıktan sonra, AI sektöründeki ortalama fiyat %151 arttı. AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konseptine sahip MemeCoin - GOAT hızla popüler oldu ve 1,4 milyar dolar değerlemeye ulaştı, AI Meme dalgasını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şimdiki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına ayak uyduramaz hale geldi.
AI+Web3, bu sıcak para, fırsatlar ve gelecek hayalleriyle dolu terim kombinasyonu, kaçınılmaz olarak bir sermaye tarafından düzenlenen bir evlilik olarak görülüyor. Bu görkemli elbisenin altında, gerçekten spekülatörlerin sahası mı, yoksa şafak patlamasının eşiği mi olduğunu ayırt etmek oldukça zor görünüyor?
Bu soruyu yanıtlamak için, her iki taraf için de kritik bir düşünce, bu durumda diğer tarafın durumu daha iyi hale getirip getiremeyeceğidir. Diğer tarafın modelinden faydalanmak mümkün mü? Bu yazıda, önceki çalışmaların üzerine çıkarak bu durumu incelemeye çalışıyoruz: Web3, AI teknolojisi yığınındaki her aşamada nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar getirebilir?
Bölüm.1 AI yığınında Web3'ün ne gibi fırsatları var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Daha sade bir dille süreci ifade etmek gerekirse: "Büyük model" insan beynine benzer; erken aşamalarda bu beyin, dünyaya yeni gelmiş bir bebeğe aittir. Bu bebek, dünyayı anlamak için çevresindeki muazzam bilgileri gözlemleyip içselleştirmelidir; işte bu, verilerin "toplanma" aşamasıdır. Bilgisayarların insanın görme, işitme gibi birçok duyusuna sahip olmaması nedeniyle, eğitim öncesinde dışarıdaki büyük ölçekli etiketlenmemiş bilgiler, bilgisayarların anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" aracılığıyla anlama ve tahmin yeteneğine sahip bir model oluşturdu, bu da bebeklerin dış dünyayı yavaş yavaş anlama ve öğrenme sürecine benzer. Modelin parametreleri, bir bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar yavaş yavaş büyüdüklerinde ve konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "akıl yürütme" aşamasına benzerdir; model, yeni dil ve metin girdileri üzerinde tahmin ve analiz yapabilir. Bebekler, dil yetenekleri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra akıl yürütme aşamasında çeşitli belirli görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına da benzer.
AI Ajanı, büyük modelin bir sonraki şekline daha yakın hale geliyor - bağımsız görevleri yerine getirebilen ve karmaşık hedeflere ulaşabilen, sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya sahip ve dünyayla etkileşimde bulunmak için araçlar kullanabilen.
Şu anda, AI'nın çeşitli katmanlardaki acı noktalarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmaya başlamıştır.
Birinci, Temel Kat: Güç ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerjidir.
Bir örnek, Meta'nın LLAMA3'ün eğitimini tamamlamak için 30 gün boyunca NVIDIA tarafından üretilen 16.000 adet H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış üst düzey bir grafik işleme birimidir). Sonuncusunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı (GPU + ağ çipi) gerektiriyor, aynı zamanda aylık eğitim için 1.6 milyar kilowatt saat enerji tüketimi gerçekleşiyor ve enerji harcaması her ay neredeyse 20 milyon dolar.
AI hesaplama gücünün rahatlatılması, Web3'ün AI ile kesiştiği ilk alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgili. Şu anda DePin Ninja veri sitesi 1400'den fazla projeyi sergilemekte, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projeleri içermektedir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde, boşta olan GPU kaynaklarına sahip bireylerin veya varlıkların hesaplama güçlerini katkıda bulunmalarına olanak tanır. Bu, Uber veya Airbnb benzeri alıcı ve satıcıların çevrimiçi pazarını kullanarak, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar böylece daha düşük maliyetle verimli hesaplama kaynakları elde eder; aynı zamanda, staking mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlar meydana gelirse, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını da garanti eder.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplamak: Sağlayıcılar, esas olarak üçüncü taraf bağımsız orta ve küçük ölçekli veri merkezleri, kripto madencilik tesisleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencileri gibi. Şu anda, daha düşük bir başlangıç eşiğine sahip cihazlar başlatmaya adanmış projeler de bulunmaktadır; örneğin, exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımına dayalı bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknolojik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; Aethir, düşük gecikmeli render işleri ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı bir şekilde eğitmeyecekler, sadece birkaç önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçecekler ve bu senaryolar doğal olarak dağıtılmış atıl hesaplama kaynaklarına uygun.
Veri
Veri, AI'nin temelidir. Eğer veri yoksa, hesaplama su yüzeyindeki bir bitki gibi faydasızdır ve veri ile model arasındaki ilişki, "Garbage in, Garbage out" atasözündeki gibi, verinin miktarı ve girdi kalitesi, nihai modelin çıktısının kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani özelliklerini belirler. Şu anda, AI'nın veri talep sıkıntısı esas olarak aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık verilere göre, OpenAI'nin GPT-4'ü eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI ile çeşitli endüstrilerin birleşmesiyle, veri güncelliği, veri çeşitliliği, dikey verilerin uzmanlığı, sosyal medya gibi yeni veri kaynaklarının duygularının entegrasyonu kaliteye yeni gereksinimler getirdi.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler, kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri setlerinin toplanmasına sınırlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Kamuya açık verilere göre, AI şirketlerinin %30'dan fazlası Ar-Ge maliyetlerinin temel veri toplama ve işleme için harcanmaktadır.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Gerçekten katkı sağlayan kullanıcıların, veri yaratımından elde edilen değere katılmaları ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcılara daha özel ve değerli verilere ulaşmalarını sağlamak, Web3'ün vizyonudur.
Grass, kullanıcıların Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak tüm internetten gerçek zamanlı verileri yakalamasını sağlayan merkeziyetsiz bir veri katmanı ve ağdır ve token ödülleri alır;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, gezinme alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir veri akış likidite havuzuna (DLP) yüklemelerine ve bu verileri belirli üçüncü şahıslara kullanmaları için yetkilendirip yetkilendirmeme konusunda esnek seçim yapmalarına olanak tanıyan benzersiz bir DLP konsepti tanıtmaktadır;
PublicAI'de, kullanıcılar X üzerinde #AI或#Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Şu anda, Grass ve OpenLayer veri etiketleme bu kritik aşamayı eklemeyi düşünüyor.
Synesis, kullanıcıların etiketlenmiş veriler, notlar veya diğer biçimlerde girdi sağlayarak ödül kazanabileceği veri kalitesine vurgu yaparak "Train2earn" konseptini ortaya koydu.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırıyor ve kullanıcılara daha fazla puan kazanmak için puan stake etme imkanı sunuyor.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir yürütme ortamı ( TEE ), örneğin Super Protocol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojileri (zk), Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturmasına olanak tanır. Bu, kullanıcıların hassas bilgileri ifşa etmeden harici web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasını sağlar.
Ancak, şu anda bu alan hala erken aşamada, çoğu proje hala keşif aşamasında, mevcut bir zorluk ise hesaplama maliyetlerinin çok yüksek olmasıdır, bazı örnekler şunlardır:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını üretmek için yaklaşık 80 dakika gerektirir.
Modulus Labs'ın verilerine göre, zkML'nin maliyeti saf hesaplamalardan 1000 kat daha fazladır.