Con l'esplosione di progetti di intelligenza artificiale generativa, la potenza di calcolo è diventata una risorsa fortemente contesa. Man mano che l'IA diventa più onnipresente e la corsa alle forniture di unità di elaborazione grafica (GPU) si intensifica, la necessità di un accesso più ampio e democratizzato alla potenza di calcolo è diventata una priorità urgente per le aziende non-MAANG. Combina questa domanda rovente con la scarsità che si sta rapidamente trasformando in esclusività delle risorse e il brutto risultato probabile è un ecosistema di IA ampiamente plasmato da una piccola manciata di enormi aziende tecnologiche.
Mark Rydon è co-fondatore e responsabile della strategia di Aethir, una rete di cloud computing decentralizzata di livello aziendale.
Se vogliamo evitare questo, il futuro dell'intelligenza artificiale e le sue implicazioni etiche dipendono dalla capacità di distribuire ampiamente queste risorse, anziché affidarsi a una manciata di aziende che monopolizzano questo potere.
Affrontare il lato dell'offerta delle richieste di elaborazione
Con l’ aumento della domanda di computer, l’attuale infrastruttura fatica a KEEP il passo. Come riportato dal Washington Post , diversi stati sono a corto di potere. La Virginia settentrionale, ad esempio, ha bisogno di diverse grandi centrali nucleari per servire tutti i nuovi data center pianificati e in costruzione.
Inoltre, i costi crescenti dell’addestramento dei modelli sollevano domande cruciali sul futuro dello sviluppo dell’intelligenza artificiale: da dove verrà questa potenza di calcolo necessaria? La Cina ha recentemente annunciato che intende aumentare la propria capacità di calcolo del 50% nei prossimi quindici anni, ma questa strada T sarà alla portata di tutti.
ONE modo per affrontare questo problema è attraverso un modello decentralizzato.
Le reti di infrastrutture fisiche decentralizzate (DePIN) possono essere utilizzate per aggregare GPU aziendali sottoutilizzate e metterle in uso, ridistribuendo sul mercato una fornitura precedentemente inaccessibile. Possono anche aiutare a sfruttare la capacità di elaborazione latente nei dispositivi dei consumatori, creando una vasta rete accessibile di GPU che può essere utilizzata per l'addestramento dell'intelligenza artificiale e altre attività ad alta intensità di elaborazione. Questi approcci democratizzano l'offerta e l'accesso alle risorse di elaborazione, sfidando i tradizionali monopoli delle GPU e promuovendo l'innovazione.
Inoltre, l'infrastruttura distribuita ottimizza l'uso delle risorse, assicurando che la potenza di calcolo inutilizzata possa contribuire a progetti di intelligenza artificiale significativi. Questo approccio massimizza l'efficienza e si allinea ai principi ESG di riduzione degli sprechi energetici e degli impatti ambientali associati ai data center su larga scala.
Sbloccare nuovi oceani di dati
I DePIN non solo possono affrontare la sfida dell’offerta e delle risorse che guida l’accessibilità informatica. Possono anche aiutare a sbloccare nuovi oceani di dati in grado di fornire i diversi set di dati necessari per addestrare modelli di IA più specializzati, robusti e inclusivi. Questo approccio migliora la qualità dei sistemi di intelligenza artificiale e promuove la sovranità e la Privacy dei dati.
I DePIN utilizzano la Tecnologie blockchain e metodi di crittografia avanzati per garantire che i dati rimangano sicuri e la proprietà sia chiaramente definita. Questo approccio decentralizzato amplia lo spettro delle informazioni, compreso quello delle regioni e delle comunità sottorappresentate, portando a modelli di IA più accurati e inclusivi.
Inoltre, i DePIN offrono ai proprietari dei dati un maggiore controllo sulle proprie informazioni, migliorando la Privacy e incoraggiando allo stesso tempo una condivisione diffusa dei dati. Si consideri, ad esempio, uno scenario sanitario in cui i dati di un paziente provenienti da vari ospedali e cliniche possono essere condivisi in modo sicuro senza compromettere la Privacy. Sfruttando i DePIN, i ricercatori possono accedere a un set di dati ricco e diversificato che migliora la loro capacità di sviluppare strumenti diagnostici e piani di trattamento migliori. Allo stesso modo, nel campo delle scienze ambientali, i DePIN possono facilitare la condivisione dei dati climatici provenienti da vari sensori, spesso situati in case e proprietà private in tutto il mondo, portando a modelli e previsioni più accurati.
L'imperativo etico
Vale anche la pena notare come la concentrazione dello sviluppo dell'IA in poche aziende Big Tech sollevi notevoli preoccupazioni etiche. Quando l'addestramento e l'implementazione di modelli di IA avanzati sono monopolizzati da poche entità, ciò limita il potenziale dell'IA di apportare benefici a tutti. Questo controllo centralizzato può rafforzare le disuguaglianze esistenti e limitare la portata dell'impatto positivo dell'IA sulla società.
La concentrazione del potere può portare a sistemi di intelligenza artificiale distorti che riflettono le prospettive e le priorità di un segmento ristretto della popolazione, esacerbando le disparità sociali ed economiche. Un simile scenario contraddice il potenziale di democratizzazione dell'intelligenza artificiale, in cui le innovazioni dovrebbero idealmente servire comunità diverse e affrontare un'ampia gamma di sfide sociali.
Democratizzare l'accesso alle risorse GPU non è solo un imperativo per il settore, è una necessità etica. Garantendo che ricercatori, startup e innovatori in tutto il mondo possano accedere alla potenza di calcolo necessaria per sviluppare tecnologie AI, possiamo promuovere un panorama AI più inclusivo ed equo. Il CEO di NVIDIA Jensen Huang, che ha coniato il termine "AI sovrana", sottolinea anche che le nazioni devono creare AI per garantire la conservazione culturale. Questo accesso più ampio incoraggia diverse prospettive nello sviluppo dell'AI, portando a soluzioni AI più eque, più equilibrate e più efficaci che possono apportare benefici alla società.
Impatto sull'innovazione
Il potenziale impatto dell’infrastruttura GPU decentralizzata sull’innovazione e sulla ricerca, in particolare nei Mercati emergenti, non può essere sopravvalutato. Ad esempio, la nostra recente collaborazione con TensorOpera AI per promuovere la formazione su modelli linguistici su larga scala (LLM) su un’infrastruttura cloud decentralizzata ha mostrato i vantaggi tangibili di questo approccio. Sfruttando la potenza delle GPU decentralizzate, TensorOpera può ora condurre corsi di formazione LLM significativi senza fare affidamento su risorse centralizzate tradizionali. Questa democratizzazione della potenza di calcolo apre ora la strada a progetti innovativi e attività di ricerca precedentemente irraggiungibili a causa dei limiti delle risorse.
Colmare il divario di elaborazione
L’infrastruttura GPU decentralizzata rappresenta un passo fondamentale per colmare il divario informatico e democratizzare l’accesso alle risorse IA. Distribuendo il potere computazionale in modo più equo, possiamo garantire che i benefici dell’intelligenza artificiale siano realizzati da uno spettro più ampio di società, aumentando così l’innovazione a tutti i livelli. Questo approccio affronta le sfide etiche poste dai monopoli dell’intelligenza artificiale e promuove l’innovazione e la ricerca globale, in particolare nei Mercati emergenti.
Mentre andiamo avanti, abbracciare modelli decentralizzati e sfruttare capacità computazionali latenti sarà cruciale per soddisfare le crescenti richieste di sviluppo dell'IA. Il futuro dell'IA dipende dalla nostra capacità di costruire un panorama computazionale più inclusivo, equo e decentralizzato.
Nota: le opinioni espresse in questa colonna sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.