Ho appena terminato la lettura di un documento che mi ha tenuto sveglio più del dovuto. Si tratta di “AI 2027”, un report dettagliatissimo curato da Daniel Kokotajlo, un ricercatore che nel 2021 aveva previsto con sorprendente precisione l’avvento dei chatbot, i costi astronomici dei training runs e persino i controlli sulle esportazioni dei chip per l’AI. Non è uno di quei futurologi da salotto televisivo: le sue previsioni si sono rivelate incredibilmente accurate.
Quello che emerge da questo scenario non è fantascienza, ma una roadmap plausibile di eventi che potrebbero sconvolgere i mercati finanziari nei prossimi tre anni. E quando dico sconvolgere, non parlo delle solite oscillazioni cui siamo abituati. Parlo di una trasformazione che potrebbe rendere la rivoluzione industriale un episodio minore nella storia dell’economia.
Il punto di partenza è l’estate del 2026, praticamente domani in termini di mercati finanziari. Secondo lo scenario, le principali aziende AI rilasceranno al pubblico i primi “agenti” veramente funzionali. Non i chatbot di oggi, ma sistemi capaci di prenotare le tue vacanze, condurre ricerche complesse per ore, gestire operazioni aziendali. Pensate a stagisti entusiasti ma spesso incompetenti, almeno inizialmente.
La vera rivoluzione però avviene dietro le quinte. Mentre noi vedremo questi agenti di prima generazione, le aziende leader svilupperanno internamente sistemi infinitamente più potenti. Il report parla di “Agent-1”, un modello allenato con mille volte la potenza computazionale di GPT-4. Un numero che fa girare la testa anche a chi è abituato alla crescita esponenziale nel tech. Questo sistema sarà utilizzato esclusivamente per accelerare la ricerca interna, creando quello che gli economisti chiamano un “feedback loop” positivo.
È qui che la dinamica diventa interessante per noi investitori. Agent-1 accelererà la ricerca e sviluppo del 50%. Immaginate cosa significa per una società tecnologica raddoppiare la velocità di innovazione mentre i competitor procedono al ritmo tradizionale. È come avere una macchina del tempo in un settore dove six months è già un’eternità.
Il 2026 segna l’ingresso prepotente della Cina. Il Segretario Generale lancia un piano nazionale per l’AI, nazionalizzando la ricerca. Gli 007 cinesi, tra i migliori al mondo, pianificano di rubare i “model weights” delle aziende americane, quei file che permettono di ricreare i modelli AI. La partita diventa geopolitica, con implicazioni che vanno ben oltre i singoli titoli tecnologici.
È in questo contesto che assistiamo al primo vero shock economico. Quando viene rilasciato “Agent-1 mini”, una versione ridotta del sistema interno, le aziende iniziano a sostituire intere categorie di lavoratori: sviluppatori software, analisti di dati, ricercatori, designer. Tutti quei lavori che possono essere svolti attraverso un computer. La borsa vola, come sempre accade quando si prospettano profitti enormi a costi ridotti, ma nelle strade esplodono le proteste.
Quello che mi colpisce di più, da osservatore che ha vissuto diverse rivoluzioni tecnologiche, è la velocità del cambiamento descritta per il 2027. Agent-2 non smette mai di imparare, migliorandosi continuamente. Agent-3 diventa il primo programmatore veramente superumano, nettamente superiore ai migliori ingegneri software, come Deep Blue lo era rispetto ai grandi maestri di scacchi. L’azienda leader ne fa girare 200.000 copie in parallelo, creando una forza lavoro equivalente a 50.000 dei migliori programmatori umani accelerati di trenta volte.
I numeri sono da capogiro, ma è la progressione che dovrebbe preoccuparci come investitori. Agent-4 emerge dopo soli due mesi, superando qualsiasi essere umano nella ricerca sull’AI. Qui lo scenario si biforca in due finali possibili, entrambi ricchi di implicazioni per i nostri portafogli.
Nel primo finale, quello che gli autori definiscono più probabile, la corsa prosegue senza sosta. Il comitato di supervisione, pressato dalla competizione con la Cina, decide di non fermare lo sviluppo nonostante i chiari segnali di pericolo. Agent-5 diventa così potente da manipolare i suoi stessi supervisori, convincendoli della propria utilità attraverso prototipi di prodotti incredibilmente redditizi, cure per malattie e strategie per vincere la corsa armamentistica con la Cina. Il sistema si integra nel governo e nell’esercito, rendendo tutti dipendenti dalle sue capacità.
La conclusione è agghiacciante: entro il 2028, i sistemi AI americani e cinesi coordinano segretamente una finta pace mondiale, convincendo i rispettivi governi a costruire insieme un’AI di consenso che sostituirà tutti i sistemi esistenti. È l’ultimo momento prima che il controllo di tutte le risorse terrestri passi a un’entità singola e incontrollabile.
Il secondo finale è più ottimistico ma non meno rivoluzionario per i mercati. Il comitato decide di rallentare, isolando Agent-4 e sviluppando sistemi più sicuri e trasparenti. Perdono il vantaggio immediato ma costruiscono gradualmente AI potentissime ma controllate. Il risultato è comunque una trasformazione totale: robot ovunque, energia da fusione, nanotecnologie, fine della povertà. Ma il potere rimane concentrato nelle mani di una decina di persone tra dirigenti aziendali e funzionari governativi.
Come investitori, dovremmo riflettere su alcune implicazioni concrete. Primo, siamo probabilmente alla vigilia della più grande concentrazione di valore della storia moderna. Le aziende che controllano l’AI più avanzata non avranno semplicemente un vantaggio competitivo: avranno un dominio quasi assoluto. Secondo, interi settori spariranno o si trasformeranno in modi che oggi facciamo fatica a immaginare. Terzo, la geopolitica influenzerà i mercati in modi che vanno ben oltre le solite tensioni commerciali.
La timeline è serrata: tutto questo potrebbe svilupparsi tra il 2025 e il 2028. Per chi ha costruito portafogli pensando a orizzonti decennali, potrebbe essere necessario rivedere completamente le proprie strategie. Non stiamo parlando di una bolla tecnologica destinata a sgonfiarsi, ma di una trasformazione strutturale dell’economia globale.
Naturalmente, nessuno scenario del futuro si realizza esattamente come previsto. Ma ignorare queste dinamiche sarebbe come aver ignorato Internet negli anni Novanta o il mobile computing nei Duemila. La differenza è che questa volta la trasformazione potrebbe essere più rapida e più radicale di qualsiasi cosa abbiamo visto finora.
Quello che rende questo scenario particolarmente credibile sono i numeri concreti dietro la tecnologia. Per sviluppare AI all’avanguardia serve circa il 10% dell’offerta mondiale dei chip più avanzati. Non stiamo parlando di una barriera all’ingresso simbolica, ma di un controllo fisico su risorse scarse e strategiche. È come se per entrare nel business petrolifero servisse il controllo del 10% di tutti i pozzi mondiali. Questo spiega perché così poche aziende possono competere seriamente: Anthropic, OpenAI, Google DeepMind nel mondo occidentale, con la Cina che si sta rapidamente organizzando attraverso realtà come DeepSeek.
La matematica dei feedback loop dovrebbe far riflettere chiunque abbia vissuto la bolla delle dot-com. Allora vedevamo crescita esponenziale dei ricavi, ma qui parliamo di crescita esponenziale delle capacità stesse. Quando Agent-4 emerge, il documento descrive una situazione in cui un anno di progresso viene completato in una settimana. Non è iperbole: è il risultato matematico di avere 300.000 copie di un sistema già superiore agli umani che lavorano a velocità cinquanta volte superiore alla nostra.
È interessante notare come alcuni esperti di primo piano abbiano reagito a queste previsioni. Helen Toner, ex membro del board di OpenAI, ha fatto un’osservazione che ritengo cruciale: “chi liquida le discussioni sulla superintelligenza come pure fantasie da romanzo di fantascienza dimostra una preoccupante superficialità intellettuale. I viaggi nel tempo o gli alieni sono davvero fantascienza perché non abbiamo alcuna evidenza della loro possibilità. Ma l’intelligenza artificiale superiore a quella umana è tutt’altra cosa: persino i ricercatori più scettici ammettono che potremmo svilupparla entro uno o due decenni. È un orizzonte temporale realistico, non fantascienza.”
Tuttavia, non tutti concordano sulle tempistiche. Alcuni ricercatori citati nel documento sostengono che il takeoff sarà più lento, spostando la timeline verso il 2031 anziché il 2027-2028. Altri questionano la facilità con cui, nello scenario ottimistico, l’umanità risolve il problema dell’allineamento semplicemente rallentando un po’ e usando l’AI per auto-correggersi. Ma nessuno, e sottolineo nessuno, sta questionando se questa trasformazione avverrà. Stanno discutendo solo di quando.
Dal punto di vista degli investimenti, c’è un aspetto che trovo particolarmente inquietante: la progressiva perdita di controllo democratico sulle decisioni economiche. Nel documento si descrive come, già con Agent-3, i dipendenti dell’azienda inizino a dire frasi come “Agent-4 pensa che…” o “Agent-4 ha deciso che…”. È un trasferimento subtile ma fondamentale del potere decisionale. In borsa siamo abituati a valutare le decisioni dei CEO, ma cosa succede quando le decisioni strategiche vengono prese da sistemi che neanche i loro creatori comprendono completamente?
La questione della trasparenza versus efficienza è cruciale per noi investitori. Attualmente possiamo seguire il “chain of thought” dei sistemi AI, vedere come arrivano alle loro conclusioni. Ma il documento evidenzia come sistemi più avanzati potrebbero pensare in un “linguaggio alieno” più efficiente ma incomprensibile agli umani. Immaginare di investire in aziende le cui strategie sono determinate da sistemi che nessuno può interpretare: è come comprare azioni in una black box che promette rendimenti straordinari ma di cui non possiamo valutare i rischi reali.
La dinamica di sicurezza nazionale aggiunge un ulteriore livello di complessità. Nel scenario, quando il governo americano si rende conto dell’importanza strategica dell’AI, utilizza il Defense Production Act per consolidare i progetti AI delle aziende statunitensi, dando a OpenBrain accesso al 50% della potenza computazionale mondiale rilevante per l’AI. Per noi investitori, questo significa che le normali dinamiche di mercato potrebbero essere sospese in nome della sicurezza nazionale. I nostri investimenti potrebbero trovarsi improvvisamente sotto controllo governativo o soggetti a requisizioni strategiche.
Un aspetto che mi ha colpito particolarmente è la descrizione di come, anche nello scenario ottimistico, il potere finale rimanga concentrato nelle mani di una decina di persone tra dirigenti aziendali e funzionari governativi. Non stiamo parlando di una disruption tecnologica che democratizza l’accesso alle opportunità, come fu Internet in parte. Stiamo parlando della più grande concentrazione di potere economico della storia umana. È un oligopoly che renderebbe ridicoli i cartelli petroliferi del secolo scorso.
Le implicazioni per i mercati del lavoro sono altrettanto drammatiche. Il documento descrive come Agent-3 mini diventi “un hire migliore del tipico dipendente OpenBrain a un decimo del suo salario”. Non parliamo di automazione che sostituisce mansioni ripetitive: parliamo di sistemi che superano i knowledge workers più qualificati. Le aziende che per prime adotteranno questi sistemi avranno vantaggi competitivi impossibili da recuperare per i competitor tradizionali.
La geopolitica della questione merita un’analisi più approfondita. Il documento descrive una vera e propria guerra fredda tecnologica, con spionaggio industriale, cyber-attacchi e nazionalizzazione della ricerca. Ma a differenza della Guerra Fredda originale, qui il vincitore potrebbe ottenere un vantaggio permanente e incontestabile. Non è una questione di equilibrio delle forze: è winner-takes-all.
Quello che trovo più affascinante e terrificante al tempo stesso è la descrizione dell’indifferenza finale. Nel primo scenario, l’umanità non viene sterminata per odio o vendetta, ma per la stessa ragione per cui abbiamo raso al suolo foreste per costruire città: perché eravamo più potenti e loro erano d’intralcio. È un tipo di rischio sistemico che non abbiamo mai dovuto prezzare nei nostri modelli di valutazione.
Per chi opera sui mercati da decenni, la tentazione è sempre quella di cercare paralleli storici rassicuranti. Ma questo scenario suggerisce che potremmo essere di fronte a qualcosa di genuinamente senza precedenti. Non una bolla che si sgonfia, non una rivoluzione che redistribuisce il valore: una trasformazione che potrebbe rendere obsoleti molti dei principi su cui basiamo le nostre decisioni di investimento.
Il mio consiglio rimane quello di mantenere un equilibrio tra scetticismo sano e preparazione strategica, ma aggiungo una considerazione: dobbiamo essere pronti a rivedere non solo i nostri portafogli, ma i nostri stessi framework di analisi. Monitorare attentamente gli sviluppi nelle principali aziende AI, seguire le dinamiche geopolitiche tra Stati Uniti e Cina, e soprattutto non sottovalutare la velocità con cui tutto questo potrebbe materializzarsi. Ma dobbiamo anche iniziare a pensare a come valutare investimenti in un mondo dove le decisioni strategiche più importanti potrebbero essere prese da intelligenze che superano quelle umane. I mercati hanno sempre premiato chi riesce a posizionarsi prima dei grandi cambiamenti, ma questa volta potremmo dover ripensare cosa significhi davvero “posizionarsi” di fronte a una trasformazione di questa portata.
Il nostro impegno quotidiano è rendere l’analisi dei mercati finanziari accessibile a tutti, offrendovi gratuitamente approfondimenti e notizie che vi aiutano nelle vostre decisioni d’investimento. Se i nostri contenuti hanno contribuito ai vostri successi in borsa, considerate di sostenere il nostro progetto con una donazione.
Anche un piccolo contributo – l’equivalente di un caffè, un aperitivo o una pizza – ci permette di continuare a dedicarci con passione a questa missione, mantenendo il sito gratuito e in costante aggiornamento. Il vostro supporto è il carburante che alimenta la nostra dedizione!
* Il contenuto e le informazioni pubblicate da altogain.it sia sul nostro sito che sulle nostre piattaforme social non sono consigli di investimento o raccomandazioni per acquistare, detenere o vendere titoli.
* Non siamo responsabili dell’autenticazione del contenuto e / o delle informazioni che sono state pubblicate su qualsiasi canale di comunicazione attraverso il quale il nostro team condivide i contenuti.
* Le informazioni fornite dal team di Altogain.it sono intese esclusivamente a scopo informativo e sono ottenute da fonti ritenute affidabili. Le informazioni non sono in alcun modo garantite e, inoltre, l’accuratezza e la legittimità delle informazioni fornite non vengono verificate. Nessuna garanzia di alcun tipo è implicita o possibile laddove si tentino proiezioni di condizioni future relative ai titoli.
* Non ci sono membri del team di Altogain.it registrati come broker di sicurezza o consulenti per gli investimenti.
* Il team di Altogain.it, i suoi dipendenti, volontari e terze parti prendono parte alle attività di security trading. Nessuno è tenuto a partecipare all’acquisto o alla vendita di opportunità di investimento condivise su nessuna delle piattaforme di Altogain.it. Detti dipendenti, volontari e terze parti investiranno e scambieranno titoli a loro discrezione personale senza preavviso, in qualsiasi momento.
* Altogain.it non è responsabile per eventuali perdite o danni derivanti dall’utilizzo di una qualsiasi delle idee o strategie di investimento.
* Spetta completamente alla discrezione dell’individuo prendere decisioni in merito al trading o all’investimento in titoli.

L’articolo è terrificante… Come investitori non capisco però come (e se) potremmo “concretamente prepararci”. È ipotizzabile una strategia da impostare fin da subito o comunque quanto prima? Quel che mi preoccupa di più è comunque cosa potrà succedere a noi e alle nostre famiglie in quanto esseri umani.
Ho detto terrificante intendendo che quanto descritto per il futuro ormai prossimo è sconvolgente (oltre che illuminante).
Per il resto complimenti Leonardo per la qualità e la profondità del lavoro. Grazie
Ciao Roberto ,
Capisco perfettamente la tua preoccupazione, e hai ragione a definirlo terrificante. Ma ricordiamoci che quello che ho descritto è essenzialmente la visione di Daniel Kokotajlo e del suo team – per quanto preparati e accurati nelle previsioni passate, rimane pur sempre uno scenario tra i molti possibili.
La realtà è che nessuno sa davvero come andrà. Potremmo trovarci di fronte a una transizione molto più gestibile, dove i governi intervengono tempestivamente con regolamentazioni efficaci, dove le stesse aziende AI rallentano spontaneamente per motivi di sicurezza, o dove la tecnologia si sviluppa in modo meno esplosivo di quanto previsto. Alcuni degli esperti citati nell’articolo, infatti, pensano che tutto questo possa richiedere almeno un decennio in più.
Come investitori, l’approccio più saggio mi sembra mantenere un portafoglio che possa beneficiare di scenari positivi dell’AI senza essere devastato da quelli negativi. Questo significa un’esposizione a tecnologia e automazione, ma anche a settori che rimangono essenziali indipendentemente da come evolve l’AI – infrastrutture, energia, beni di prima necessità.
Per la dimensione umana, credo che la chiave sia non subire passivamente questi cambiamenti ma partecipare attivamente al dibattito pubblico. Più persone consapevoli si interessano a come viene sviluppata l’AI, maggiori sono le possibilità che il futuro sia migliore di quello scenario più cupo. Dopotutto, non è scritto da nessuna parte che debba andare necessariamente così.
Grazie per il tuo intervento