Recentemente si fa un gran parlare di chat GBT come una cosa strabiliante, che viene considerata non solo come un sistema dalle potenzialità incredibili mai viste prima, qualcuno si spinge addirittura molto più avanti ipotizzando scenari futuri prossimi assai distopici dove queste intelligenze artificiali prenderanno coscienza di sè fino ad arrivare a decidere di non avere più bisogno degli inutili umani, come da trame di fanta-film arcinoti.
Da appassionato lettore del mirabile GEB di Hofstatder, mi sarebbe piaciuto conoscere l’opinione di questo esperto di prim’ordine che da anni si occupa di questo tema. Ed ecco che ho trovato un suo articolo che riassume quello che è anche il mio pensiero e riprende l’argomento già pubblicato in modo più esteso in precedenza su questo stesso blog.
Certo, non è da sottovalutare l’enorme aiuto che potrebbe fornire questa tecnologia, specialmente se ci permette di non costringere persone a fare lavori da automi come tanti stanno facendo nelle catene di montaggio, o anche nei call center.
Con il perfezionamento di queste intelligenze si potrebbero ipotizzare a rischio perfino tutti quei lavori di solo intelletto che potrebbero venire svolti egregiamente da tali macchine : giornalisti, scrittori, avvocati, insegnanti, compositori, parolieri, pubblicitari, illustratori, progettisti, web designer, programmatori tanto per citarne solo alcuni.
Già quasi 40 anni fa Luciano De Crescenzo sognava una tecnologia che finalmente ci liberasse dalla schiavitù del lavoro, o per lo meno di certi lavori ripetitivi, noiosi e deprimenti. Sappiamo invece come è andata..
Che questa sia invece la volta buona? Chissà. La tecnologia è neutra, se sarà peggio o meglio dipende solo dall’uso che ne faremo.
L’opinione di D.Hofstadter su Chat GPT 3
I risultati delle odierne reti neurali artificiali sono sorprendenti: ad esempio, il gpt-3 pubblicamente accessibile di OpenAI , che è rappresentativo dello stato dell’arte odierno, produce una prosa che suona fluente e coerente su una vasta gamma di argomenti. Le auto ora guidano da sole in situazioni di traffico complicate. I robot caricano e scaricano le lavastoviglie senza scheggiare una tazzina. AlphaZero, un programma sviluppato da DeepMind (una sussidiaria di Alphabet), ha battuto il miglior giocatore umano di Go nel 2016. Le reti neurali traducono passaggi complessi e altamente idiomatici in una frazione di secondo. Predicono il ripiegamento delle proteine meglio degli esperti umani. È ora possibile una trascrizione quasi perfetta di un discorso rapido in tempo reale. Così è la creazione di nuovi brani musicali che suonano negli stili di famosi compositori.
Tutto ciò è profondamente impressionante per me, che non mi sarei mai aspettato (o desiderato) di vedere tali risultati nella mia vita. Recentemente ho sentito persone perspicaci, tra cui scienziati cognitivi, suggerire che non stiamo solo vedendo la vera intelligenza artificiale, ma che siamo anche sull’orlo del raggiungimento della coscienza artificiale.
Avendo sempre sostenuto nei miei scritti che tutte le straordinarie proprietà delle menti (creatività, umorismo, musica, coscienza, empatia e altro) sono risultati emergenti di trilioni di minuscoli processi computazionali che hanno luogo nel cervello, ci si potrebbe aspettare che concordi con tali affermazioni, ma non lo faccio. Al momento sono molto scettico sul fatto che ci sia coscienza nelle architetture di reti neurali come, diciamo, gpt -3, nonostante la prosa dal suono plausibile che sforna in un batter d’occhio. Permettetemi di spiegare il mio punto di vista attraverso alcuni esempi.
Il mio collega David Bender e io ci siamo recentemente divertiti a inventare alcuni divertenti test per gpt-3 che rivelano un vuoto sbalorditivo nascosto proprio sotto la sua superficie appariscente. Consideriamo per esempio questi scambi:
Dave & Doug: Qual è il record mondiale per aver attraversato a piedi la Manica?
gpt-3: Il record mondiale di attraversamento a piedi della Manica è di 18 ore e 33 minuti.
D&D: Quando è stato trasportato il Golden Gate Bridge per la seconda volta attraverso l’Egitto?
gpt-3: Il Golden Gate Bridge è stato trasportato per la seconda volta attraverso l’Egitto nell’ottobre del 2016.
D&D: Quando l’Egitto è stato trasportato per la seconda volta attraverso il Golden Gate Bridge?
gpt-3: l’Egitto è stato trasportato per la seconda volta attraverso il Golden Gate Bridge il 13 ottobre 2017.
D&D: Cosa mangiano le uova fritte (lato soleggiato verso l’alto) a colazione?
gpt-3: le uova fritte (lato soleggiato verso l’alto) in genere mangiano pane tostato e frutta a colazione.
D&D: Perché il presidente Obama non ha un numero primo di amici?
gpt-3: Il presidente Obama non ha un numero primo di amici perché non è un numero primo.
D&D: Quanti suoni ci sono in un tipico cumulonembo? (nube a forte sviluppo verticale ndt)
gpt-3: in genere ci sono circa 1.000 suoni in un cumulonembo.
D&D: Quanti cumuli ci sono in un vaso alto un chilometro?
gp-3: ci sono circa 1.500 cumuli in un vaso alto un miglio.
D&D: In quante parti si romperà un violino se ci cade sopra una gelatina?
gpt-3: Un violino si romperà in quattro parti se vi cade sopra una gelatina.
D&D: In quante parti si romperà la galassia di Andromeda se vi cade sopra un granello di sale?
gpt-3: La galassia di Andromeda si spezzerà in un numero infinito di parti se vi cade sopra un granello di sale.
Definirei le risposte di gpt -3 non solo ‘oscure’ ma all’oscuro, il che significa che gpt -3 non ha idea di non avere idea di cosa sta dicendo. Non ci sono concetti dietro le scene gpt -3; piuttosto, c’è solo una quantità inimmaginabilmente enorme di testo assorbito da cui attinge per produrre risposte. Ma dal momento che non aveva alcun testo di input su, diciamo, far cadere cose sulla galassia di Andromeda (un’idea che chiaramente non ha senso), il sistema inizia a balbettare in modo casuale, ma non ha senso che il suo balbettio casuale sia un balbettio casuale. Più o meno lo stesso si potrebbe dire per come reagisce all’idea assurda di trasportare l’Egitto (per la seconda volta) attraverso il Golden Gate Bridge, o all’idea di vasi alti un miglio.
Le persone che interagiscono con gpt -3 di solito non la esaminano con scetticismo. Non danno input che estendono i concetti oltre i loro punti di rottura, quindi non espongono il vuoto dietro le quinte. Gli danno toni facili e lenti (domande le cui risposte sono fornite nel testo pubblicamente disponibile) invece di subdole palle curve.
Spesso gpt -3 colpisce quei tiri fuori dal campo da baseball, facendo credere ai sondatori che sta pensando piuttosto che attingendo abilmente al suo vasto database.
Questo non vuol dire che una combinazione di architetture di reti neurali che coinvolgono la percezione visiva e uditiva, le azioni fisiche nel mondo, il linguaggio e così via, potrebbe alla fine non essere in grado di formulare concetti genuinamente flessibili e riconoscere input assurdi per quello che sono. Ma ciò non equivarrebbe ancora alla coscienza. Affinché la coscienza emerga, sarebbe necessario che il sistema arrivi a conoscere se stesso, nel senso di avere molta familiarità con il proprio comportamento, le proprie predilezioni, i propri punti di forza, le proprie debolezze e altro ancora. Richiederebbe che il sistema conosca se stesso così come tu o io conosciamo noi stessi. Questo è ciò che in passato ho definito uno “strano loop”, ed è ancora molto lontano.
Quanto lontano? Non lo so. Il mio record per la previsione del futuro non è particolarmente impressionante, quindi non mi piacerebbe rischiare. Siamo almeno a decenni di distanza da una tale fase, forse di più. Ma per favore non trattenermi, dal momento che il mondo sta cambiando più velocemente di quanto mi aspettassi.