Perchè l'AI sarà un problema?

Il mio pensiero da conoscitore della materia sulle tecnologie emergenti.

In un'epoca in cui lo spettro della guerra torna a incombere sull'europa e sul mondo intero, in un'epoca nella quale si insiste con la ricorrenza del giorno della memoria quando la memoria è forse "un po' troppo corta" o meglio... ci si ricorda ciò che si vuole... ecco che pronta, come una ghigliottina sul collo dei molti, c'è una problematica nuova.

Nuova si fa per dire, la problematica a cui mi riferisco ha origine nel '74 quando negli USA ha inizio l'avvento del nuovo standard di trasmissione TCP/IP, o forse ancor prima, quando il governo istituì ARPA con l'obiettivo di sviluppare delle soluzioni tecnologiche e di creare una rete di telecomunicazioni con scopi militari... d'altronde quale nuova tecnologia potrebbe mai nascere senza le percentuali del pil che ogni stato riserva alle armi?


(Uno schema di Arpanet nel 1972)

Il '91 segna la data di venuta al mondo di un'arma pericolosa, è il natale del World Wide Web. Il primo sito internet della storia viene messo online e ha inizio il tutto. "L'internet" è il più grande strumento di manipolazione mai esistito nella storia del pianeta terra.

Certo, alcuni di voi diranno che già la radio veniva usata a tale scopo... sicuramente, ma vi dice niente il termine Big Data?

#1. I "Grandi Dati"

E bene, questo termine ha iniziato ad essere sulla bocca di tutti da non molti anni, ma sapete perchè questi dati vengono definiti Big?

Nel '86 i dati circolanti su internet erano ben 281 Petabyte. Pensate che mediamente un file pdf di una bolletta del gas occupa 200kB, circa 0.0000000001821 Petabyte. Sono tanti dati no? E invece no, nel 2014 erano oltre 650 Exabyte. 1 Exabyte sono 1024 Petabyte... poi si è smesso di contarli, è impossibile quantificarli.

La maggior parte di questi miliardi e miliardi di miliardi di informazioni sono i vostri dati. Si! Proprio i vostri. I vostri messaggi, le vostre foto, le vostre abitudini, cosa vi piace mangiare e la frequenza media con cui usate il bagno di casa vostra. E ogni giorno non facciamo altro che alimentare questo accumulo senza fine di dati.


(Rivisitazione del famoso manifesto americano... e si, è generato con l'ai)

Ecco che nasce il problema: per anni sono state accumulate informazioni di qualsiasi genere su qualsiasi cosa ma fino ad ora sono state utilizzate per operazioni di business intelligence. Se conosci il target puoi proporre un prodotto migliore, è ovvio, no?

Vi è capitato mai di parlare con qualcuno dell'auto che vorreste comprare o della t-shirt che vi piace particolarmente?

Ecco che come per magia, aprendo Facebook la sera, tra i post stupidi di gattini e balletti vari, viene fuori l'annuncio su un fantastico finanziamento per l'auto dei tuoi sogni! Che coincidenza! è una cosa risaputa che i dati siano sempre stati usati in questo modo, e magari non c'è nulla di male.. non lo dico con tono accusatorio, la personalizzazione dell'esperienza d'uso può essere anche un pregio.

#2. Le nuove "Intelligenze"

Ora, tralasciando solo per un attimo il discorso dei dati, pensiamo a tutto ciò che sta succedendo con la famigerata intelligenza artificiale. Se il termine big data era sulla bocca di tutti allora questo? è sulla bocca non solo di tutti gli esseri umani, ma anche dei computer stessi... ooops.

ChatGpt, Claude Sonnet, DeepSeek, ormai ne vien fuori uno alla settimana, tutti in competizione l'uno con l'altro per superare di 1 millisecondo il concorrente.

Si tende a comparare questi prodotti, o più in generale le reti neurali, che sono una branca dell'intelligenza artificiale, al cervello umano. Niente di più sbagliato! O meglio, non ancora.

La differenza sostanziale sta in un piccolo tecnicismo: i modelli "intelligenti" attualmente presenti sul mercato hanno bisogno di una fase di allenamento con un insieme più o meno grande di dati finiti e discreti.

Questo significa che, per quanto sofisticati siano i dati e la fase di allenamento stessa, una volta terminata, la rete neurale ha raggiunto il suo picco massimo di "intelligenza" e NON può andare oltre. Il fatto che i chatbot attualmente diffusi "imparino" il vostro nome e cosa fate nella vita e sappiano usare queste informazioni nei messaggi successivi non li rende più intelligenti. Si tratta solo e soltanto di un mantenimento di informazioni più o meno in profondità, ma non migliora affatto l'efficienza. Si provvede infatti a continuare a investire miliardi su miliardi per mettere in commercio nuovi modelli allenati sempre meglio.

Il cervello umano è invece in continuo allenamento, le informazioni che recepisce lo cambiano, modificano i suoi neuroni e la loro attivazione cambia.

Purtroppo questa distanza durerà ben poco perchè nelle più grandi università e nei grandi centri di ricerca si sta già sviluppando un nuovo modo di concepire le reti neurali. è definito perpetual learning, allenamento continuo, allenamento al volo.

Per il rilascio di un nuovo modello è prevista una fase di pre-allenamento e poi, una volta rilasciata, la rete è imprevedibile! è in grado di modificare il suo carattere e ciò che sa e che non sa in base a quello che gli succede intorno. è in grado di modificare le proprie predizioni e di abituarsi a nuovi standard diventando così MAI obsoleta.

Pazzesco no? Spaventoso più che altro... ma non è tutto.

#3. I super computer... e super piccoli

Da sempre i ricercatori fanno di tutto per portare più potenza di calcolo e memoria possibile a bordo di chip sempre più piccoli.

Se pensiamo all'evoluzione che questa branca ha avuto e se pensiamo al poco tempo che ha impiegato è assolutamente assurdo!

Nel '39 si sviluppavano lo Z1 e l'ABC, i primi computer digitali... entravano pelo pelo nella cameretta di vostro figlio e pesavano qualche tonnellata e facevano solo banali calcoli!

(Si, so che è un Eniac, ma faceva più scena)

Si tratta di un qualcosa di superato certo, ora siamo abituati a tenere in mano una potenza di calcolo incredibile e abbiamo la capacità di fare cose incredibili con il solo uso del nostro dito.

Ma non è ancora tutto! Quello che siamo abituati ad usare quotidianamente è ancora qualcosa di deterministico... ovvero qualcosa che sotto sotto ragiona comunque in 0 e 1... ancora in corrente passa, corrente non passa.

La meccanica quantistica supera questo concetto. L'informazione minima non è più il bit, ma il qubit. Il bit quantistico è "semplicemente" qualcosa di non-deterministico, può essere contemporaneamente 0 e 1.

Tralasciando la noiosa matematica dietro questi concetti faccio un paragone: nel 2019 si è analizzato un problema ritenuto non risolvibile in tempi ragionevoli (circa 10 mila anni) per un computer tradizionale... bene, questo problema è stato risolto con l'uso di un computer quantistico in soli 200 secondi.

Alla base di questi nuovi supercomputer c'è sempre e comunque il tradizionale transistor, uno dei componenti elettronici più piccoli che sono alla base dei chip moderni. Fino a poco fa con i transistor si giocava a infilarli nelle millefori...da qualche anno si lavora per portare le dimensioni dei transistor a livello atomico, invisibili!

#4. Boom

Ora ricolleghiamo tutto e immaginiamo insieme:

  • big tech libere di sviluppare reti neurali in grado di auto-apprendere e adattarsi costantemente all'ambiente
  • una quantità inimmaginabile di dati di ogni tipo a loro disposizione
  • delle infrastrutture super potenti e invisibili dove farle eseguire indisturbate
...ecco, questo si che è spaventoso!