Anthropic vs OpenAI al Super Bowl: la guerra della fiducia nell’AI

Quando il Super Bowl diventa un ring per chatbot

Dopo la bttaglia già iniziata in autunno tra i giganti della Ai, Anthropic ha investito uno spazio da otto milioni di dollari in occasione del Superbowl per dire una cosa sola:
“Ads are coming to AI. But not to Claude.”
Non per dimostrare che Claude è “più bravo”. Per affermare che è più affidabile.
E lo ha fatto con una satira chirurgica: in uno spot un utente chiede aiuto su come parlare con sua madre;
il chatbot inizia con consigli sensati e poi devia in una proposta commerciale. In un altro, una richiesta sugli addominali
si trasforma in un invito ad acquistare solette per sembrare più alti.
Il messaggio non è tecnico, è simbolico: quando un assistente inizia a venderti qualcosa, smette di lavorare solo per te.

Guarda gli spot

How can I communicate better with my mum?
How can I get six pack quickly?
Is my essay making a clear argument?

Nel posizionarsi come saldamente ADS Free, Anthropic non sta discutendo di interfacce, formati o policy pubblicitarie.
Sta ponendo una domanda più semplice e più scomoda: che cosa succede alla fiducia quando la conversazione diventa uno spazio pubblicitario da monetizzare?
Ed è una domanda che pesa, perché arriva nello stesso momento in cui OpenAI ha dichiarato l’intenzione di testare annunci “in fondo alle risposte” quando esiste un prodotto o servizio sponsorizzato rilevante per la conversazione. Non interruzioni a metà frase, certo.
Ma pubblicità contestuale alla richiesta. La messa in scena di Anthropic non descrive un’implementazione letterale: visualizza il principio.

 

 

 

La replica di OpenAI non si è fatta attendere: nel giro di poche ore è apparsa su X la risposta di Sam Altman.
La risposta, però, finisce per entrare nel terreno scelto da Anthropic, invece di spostare la conversazione su un piano più favorevole.
Sam Altman riconosce che gli spot sono divertenti, poi li definisce disonesti e prova a ribaltare il discorso sull’accesso democratico e sulla missione.
Ma è il lessico a segnare il punto di rottura: nella risposta arrivano parole come “authoritarian” e “dark path”.
Termini troppo forti per essere solo una nota a margine: trasformano un attacco di marketing in una contesa identitaria.

Per capire perché questo scontro esplode adesso, occorre guardarlo recuperando il modello del ciclo di vita del prodotto.
Per due anni la battaglia è stata sulla domanda primaria: l’AI serve davvero? Cambierà il modo in cui lavoriamo, cerchiamo, creiamo?
Oggi, nella pratica quotidiana, quella domanda è già stata risolta. L’AI è entrata negli strumenti, nelle aziende, nelle routine.
Non è più un esperimento. È diventata un’infrastruttura cognitiva.

Ed è per questo che la competizione si è spostata sulla domanda secondaria: quale AI scelgo? A chi mi affido?
Quale brand rappresenta il modo giusto di usare questa tecnologia? Questo è il segnale tipico di una categoria in sviluppo avanzato,
che si avvicina alla maturità: non si vende più la tecnologia, si vende un modello di relazione, una visione, una promessa di fiducia.

Gli spot di Anthropic e la risposta di OpenAI non sono quindi una polemica episodica. Sono comunicazione da fase di competizione sulla preferenza di marca.
Non stanno cercando di convincerci che l’AI è utile. Stanno cercando di convincerci che la loro è l’AI giusta.
E in questo contesto il tema degli ads diventa simbolico. Non è solo una scelta di monetizzazione.
È un modo per dire: noi siamo questo tipo di azienda, e vogliamo che tu ci scelga per questo.

Qui sta il colpo strategico di Anthropic: non ha attaccato le performance, ha attaccato la fiducia.
Non “ChatGPT funziona peggio”, ma “le ads dentro una conversazione personale cambiano la natura della relazione”.
È una distinzione che non si risolve con benchmark o roadmap.
E qui sta l’effetto collaterale della replica di OpenAI: quando la difesa si concentra sul “non sarà così”,
il mercato registra soprattutto che il tema è quello. Non perché una parte abbia torto in assoluto,
ma perché l’asse della competizione viene spostato dal come funziona l’AI al per chi lavora l’AI.

In questa fase del mercato, più che i numeri assoluti contano le percezioni che diventano abitudini: quale assistente entra nel flusso quotidiano,
quale viene aperto per primo, quale viene associato a discrezione, affidabilità, continuità.
Il Super Bowl non era il vero target. Il vero target sono gli utenti professionali che oggi usano l’AI come strumento quotidiano e che,
da ora in poi, si faranno una domanda in più: quando chiedo aiuto, chi è davvero dall’altra parte della conversazione?

P.S.

Ho chiesto a ChatGPT di riscrivere la risposta di Altman secondo i principi di comunicazione strategica.
Il risultato mostra esattamente dove la comunicazione originale è deragliata – e cosa si sarebbe potuto fare diversamente.

Versione riformulata (più strategica, meno reattiva) da Chat GPT

Gli spot di Anthropic sono spiritosi. La satira funziona quando semplifica una paura reale. Ma qui il punto non è la caricatura: è la responsabilità.
Noi crediamo che l’AI debba essere accessibile a tutti, non solo a chi può permettersi un abbonamento. L’accesso crea possibilità, autonomia, crescita.
Oggi centinaia di milioni di persone usano ChatGPT gratuitamente: è una scelta deliberata, non un compromesso tattico.

Per rendere sostenibile questa scala, stiamo esplorando modelli di ricavo che non interferiscano con l’integrità delle risposte.
Se e quando introdurremo formati sponsorizzati, saranno chiaramente separati dal contenuto, trasparenti e progettati per non influenzare il comportamento del modello.
Un assistente resta un assistente solo se lavora per l’utente, non per l’inserzionista. Questo principio non è negoziabile.

È legittimo costruire prodotti premium per chi vuole — e può — pagare. È una strada che percorriamo anche noi.
Ma crediamo anche che limitare l’AI a pochi significhi rinunciare al suo impatto più importante: diventare un’infrastruttura utile per miliardi di persone.

C’è poi una differenza più profonda tra le visioni. Noi non pensiamo che una singola azienda debba decidere da sola cosa si può o non si può costruire con l’AI,
o chi può usarla. Crediamo in un ecosistema aperto, pluralista, capace di evolvere con il contributo di sviluppatori, aziende e istituzioni.

Per questo continuiamo a investire su strumenti per chi costruisce, come Codex, e su un modello che abbassi progressivamente il costo dell’intelligenza per tutti.
Questa fase dell’AI non appartiene a chi vuole chiuderla o controllarla. Appartiene a chi vuole renderla utile, accessibile e affidabile per il maggior numero possibile di persone”

Barbara Lorenzini – Consulente, docente, brand storyteller e podcaster.
Se vuoi capire chi sono e conoscere questo progetto, inizia da questo articolo di Bologna Business School

Condividi questo articolo:

ULTIMI ARTICOLI

Che cos’è il marketing?

Che cos’è il marketing?

Una definizione per un mondo di scelte Che cos’è il marketing? La definizione più utile, oggi, è...