Stai investendo in aziende di AI, o stai investendo in uno schema di finanziamento circolare che produce casualmente un po’ di AI?
Questa domanda mi tiene sveglio la notte mentre osservo il mio portafoglio—Nvidia, Microsoft e Meta—navigare quello che potrebbe essere il punto di inflessione più significativo nella storia del computing. Come qualcuno che trascorre le mie giornate ad analizzare architetture di agenti e sistemi di intelligenza, non sono preoccupato se l’AI funzioni. Sono preoccupato su chi sta realmente costruendo fossati sostenibili rispetto a chi sta cavalcando un carosello di capitale.
Il Problema dell’Economia Circolare
Analisi recenti hanno rivelato una verità scomoda sull’economia dell’AI: Microsoft investe miliardi in OpenAI, che poi spende questi miliardi in computazione Azure e chip Nvidia. I ricavi di Nvidia sembrano spettacolari, ma quanto di essi rappresenta una domanda genuina rispetto a un finanziamento dei fornitori travestito da spesa dei clienti? Quando i tuoi clienti più grandi sono finanziati dai tuoi altri clienti più grandi, non stai osservando un mercato—stai osservando un circuito chiuso.
Questo è estremamente importante per la strategia di portafoglio. La domanda non è se queste aziende siano tecnicamente impressionanti. Lo sono. La domanda è se le loro attuali valutazioni riflettano modelli di business sostenibili o flussi di capitale temporanei che potrebbero invertire rapidamente.
Nvidia: Mantengo, Ma Osservo le Uscite
Sto mantenendo la mia posizione in Nvidia, ma ho smesso di aumentarla. Ecco perché: Nvidia ha costruito fossati tecnici genuini in CUDA, nel loro stack di compilatori, nella loro rete di interconnessione. Questi non sono banali da replicare. Ma la loro attuale valutazione presuppone che la domanda di addestramento dell’AI continuerà a crescere esponenzialmente, e sono sempre più scettico riguardo a questa assunzione.
Il passaggio dall’addestramento all’inferenza cambia tutto. I carichi di lavoro di inferenza favoriscono architetture diverse—quelle in cui i vantaggi di Nvidia sono meno pronunciati. I TPU di Google, gli ASIC personalizzati e anche l’inferenza basata su CPU sono tutte alternative valide. Più importante, man mano che i modelli diventano più efficienti, i requisiti di calcolo per query diminuiscono. I ricavi di Nvidia potrebbero crescere, ma probabilmente non a tassi che giustifichino i multipli attuali.
Sto mantenendo perché Nvidia rimane la meglio posizionata per i prossimi 18-24 mesi di sviluppo delle infrastrutture per l’AI. Ma sto osservando attentamente segni che l’economia dell’inferenza stia maturando più velocemente del previsto.
Microsoft: È Tempo di Ridurre l’Esposizione
Sto attivamente riducendo la mia posizione in Microsoft, e il ragionamento è semplice: stanno pagando i prezzi più alti per la posizione meno differenziata nell’AI.
La strategia di AI di Microsoft è fondamentalmente “noleggiare i modelli di OpenAI e integrarli ovunque.” Questo non è un fossato—è un gioco di distribuzione che presume che OpenAI mantenga un vantaggio tecnico decisivo. Ma stiamo già vedendo quel vantaggio assottigliarsi. Anthropic, Llama di Meta e altri stanno colmando il divario. Quando le capacità dei modelli convergono, il investimento di Microsoft di 13 miliardi su OpenAI inizia a sembrare meno una posizione strategica e più un sovraprezzo per un accesso temporaneo.
I numeri di ricavi di Azure AI sembrano impressionanti finché non realizzi quanto di essi sia sovvenzionato dagli stessi investimenti di Microsoft in OpenAI. Fondamentalmente, si stanno pagando da soli, registrando ricavi e chiamandolo crescita. Questo non è un modello di business sostenibile—è ingegneria finanziaria.
Meta: Raddoppiare la Scommessa Contraria
Sto aumentando la mia posizione in Meta, e sospetto di essere in minoranza qui. Il mercato sembra considerare la spesa di Meta per l’AI come uno spreco perché non è immediatamente monetizzabile. Io la vedo come l’investimento in AI più strategicamente valido tra i tre.
Meta sta costruendo un’infrastruttura AI genuina per i propri prodotti—sistemi di raccomandazione, moderazione dei contenuti, targeting pubblicitario. Questi sistemi generano ricavi reali oggi. I loro modelli Llama sono pesi aperti, il che significa che non stanno cercando di monetizzare i modelli direttamente. Invece, stanno commoditizzando il complemento: se i potenti modelli AI sono gratuiti, i massicci vantaggi in termini di distribuzione e dati di Meta diventano più preziosi, non meno.
Più importante, Meta non dipende dal finanziamento circolare che sostiene gran parte dell’ecosistema AI. Stanno spendendo il loro flusso di cassa per un’AI che migliora i loro prodotti esistenti. Quando la musica finisce e gli accordi circolari si disfano, Meta rimarrà ancora in piedi con vere capacità AI integrate in prodotti che generano realmente ricavi.
Cosa Significa Questo per l’Intelligenza degli Agenti
Da una prospettiva di architettura degli agenti, le aziende che vinceranno non sono necessariamente quelle con i modelli più grandi o il maggior calcolo. Sono quelle con i migliori volani di dati e il percorso più chiaro dall’abilità dell’AI al valore per l’utente.
Meta ha entrambi. I loro agenti di raccomandazione migliorano man mano che più persone usano le loro piattaforme. I loro agenti di targeting pubblicitario generano ROI misurabili. Microsoft sta noleggiando capacità. Nvidia sta vendendo pale in una corsa all’oro che potrebbe essere in fase di conclusione.
I timori sulla bolla dell’AI non riguardano se l’AI sia reale—è ovviamente reale. Riguardano se l’attuale allocazione di capitale rifletta economie sostenibili. I miei aggiustamenti di portafoglio riflettono una semplice tesi: possedere le aziende che costruiscono veri prodotti AI con modelli di business reali, non quelle che partecipano a schemi di finanziamento circolare che coinvolgono casualmente l’AI.
🕒 Published: