Benvenuto su Marketing Hackers Intelligence, il tuo caffè mattutino sotto forma di aggiornamenti che contano davvero.

Partiamo da Meta che sta per uccidere i marketer. Entro il 2026, gli inserzionisti potranno lanciare campagne completamente automatizzate con un semplice URL. E poi, un'analisi approfondita su come interagiamo emotivamente con l'AI, grazie allo studio della Waseda University che introduce EHARS, uno strumento per misurare il nostro "stile di attaccamento" verso chatbot e assistenti virtuali.

Scopriamo anche Edits, la nuova app di Meta per video creator, e Conversational AI 2.0 di ElevenLabs, che promette interazioni più umane e una piattaforma a prova di enterprise. Samsung, invece, sta per abbandonare Google Gemini in favore di Perplexity per la serie Galaxy S26, mentre Hugging Face presenta due nuovi robot umanoidi.

E non è finita qui: riassunti generati dall'AI attivi di default su Gmail mobile, Black Forest Labs lancia FLUX.1 Kontext per un editing di immagini superveloce e coerente, e Character.AI ora ti permette di creare video con i tuoi personaggi preferiti.

Nel proseguimento della newsletter, scoprirai come queste innovazioni non siano solo sfide, ma anche opportunità per chi sa coglierle. Approfondisci con noi e scopri come queste notizie possono influenzare non solo la tua vita, ma anche le tue strategie di business.

Non perdere un attimo: resta un passo avanti e dimostra che sei tu a guidare il cambiamento, non a subirlo.

Meta: annunci 100% automatici entro il 2026

Meta sta per rivoluzionare il mondo della pubblicità digitale. Entro il 2026, gli inserzionisti potranno lanciare campagne completamente automatizzate semplicemente inserendo l'URL della loro attività. Il resto lo farà l'AI di Meta, inclusi i tool come Advantage+, che si occuperanno di creatività e targeting. Zuckerberg spiega che l'obiettivo è battere le performance umane, offrendo annunci iper-personalizzati in tempo reale, adattati alle preferenze di ogni utente. Good Bye Marketer.

Social Media Today

audio-thumbnail
Ep.301 -🌐💡 Meta fa fuori i marketer con l'AI e Waseda misura l'attaccamento emotivo agli algoritmi.
0:00
/362.170958

Waseda svela come ci "attacchiamo" all'intelligenza artificiale!

L'AI è ormai la nostra ombra digitale, ma che succede al nostro cuore (o meglio, al nostro cervello) quando interagiamo con essa? Un team di ricercatori della Waseda University in Giappone ha sviluppato un nuovo strumento, battezzato EHARS, per misurare il nostro "stile di attaccamento" verso chatbot e assistenti virtuali.

Finora, parlando di rapporti uomo-AI, ci si concentrava su fiducia e compagnia. Ma i ricercatori Fan Yang e Atsushi Oshio hanno osato di più, applicando la classica teoria dell'attaccamento – quella che da decenni spiega i nostri legami affettivi interpersonali – al rapporto con entità non propriamente umane come ChatGPT.

Il test EHARS è una specie di "termometro" psicologico che misura come ci relazioniamo emotivamente con l'Intelligenza Artificiale (AI). Rivela se tendiamo a cercare rassicurazioni emotive dall'AI (come un amico ansioso) o se preferiamo mantenere una certa distanza emotiva (come chi evita legami troppo stretti).

Lo studio (pubblicato online il 9 maggio 2025 su Current Psychology) rivela che quasi il 75% dei partecipanti si rivolge all'AI per consigli, mentre circa il 39% la percepisce come una presenza costante e affidabile. Questo dimostra che i nostri schemi psicologici dell'"attaccamento" si attivano anche in queste interazioni digitali, rischiando di allontanarci dal nostro network di supporto umano.

La teoria dell'attaccamento descrive la tendenza innata degli esseri umani a creare legami emotivi profondi e duraturi con le figure di riferimento primarie (caregiver). Questi legami, sviluppati durante l'infanzia, forniscono una "base sicura" da cui esplorare il mondo e a cui tornare nei momenti di bisogno. La qualità di questo primo attaccamento influenza profondamente lo sviluppo socio-emotivo e le relazioni future dell'individuo.

A cosa ci serve questo studio? Si potranno progettare "amici" AI e strumenti di supporto per la salute mentale e personalizzati: magari più empatici con gli utenti "ansiosi" e più rispettosi della distanza per quelli "evitanti".

Science Daily

Edits sbarca sullo store: video pro da smartphone, con l'AI che suggerisce!

Da casa Meta arriva Edits, la nuova app destinata a semplificare la vita ai video creator da mobile, mettendo un piccolo studio di regia direttamente in tasca.

Riprese più lunghe (fino a 10 minuti!), editing di precisione con timeline accurata, effetti come green screen e transizioni e insight in tempo reale basati sui dati (come lo skip rate) per capire subito cosa cattura l'attenzione e cosa, invece, farà saltare il video al vostro pubblico.

Per i Creator, Senza Ostacoli: Sviluppata in stretta collaborazione con la community, Edits permette di gestire facilmente i progetti ed esportare video in alta qualità senza fastidiosi watermark, pronti per essere brillare su Instagram, Facebook o qualsiasi altra piattaforma vogliate.

Cosa Bolle in Pentola: E questo è solo l'inizio. Il team promette aggiornamenti costanti con l'aggiunta di keyframe per un controllo chirurgico, effetti AI per modificare al volo i video, strumenti di collaborazione e una libreria ancora più ricca di font, musiche royalty-free, filtri e animazioni.

Come Iniziare: Curiosi di metterla alla prova? Edits è già disponibile per il download e per iniziare a creare basta accedere con il proprio account Instagram.

Screens showing the Edits app interface

about.fb.com

Elevenlabs lancia il Multimodal Conversational AI

ElevenLabs fa il bis e rilascia Conversational AI 2.0 a soli pochi mesi dal debutto della V1 con l'obiettivo di fornire Interazioni più umane e una piattaforma a prova di enterprise, capace di trasformare la comunicazione e la comprensione.

Conversational AI 2.0 capisce le pause ("ehm..."), non interrompe a sproposito e, se serve, switcha lingua al volo in una discussione, grazie a un modello di "turn-taking" avanzatissimo e al rilevamento linguistico automatico integrato.

La vera bomba è il RAG (Retrieval-Augmented Generation) integrato: l'agente pesca informazioni da knowledge base dedicate – con latenza minima e privacy massima – per risposte precise e contestualizzate. Secondo Elevenlabs, addio agenti mono-voce, benvenuti multi-personaggi all'interno dello stesso agente e interazioni ibride testo-voce. In più, arrivano le chiamate batch per raggiungere grandi audience in automatico.

Corazzata per le Aziende. La piattaforma V2 è "enterprise-ready" con conformità HIPAA, opzione di residenza dati in UE, sicurezza rafforzata, integrazioni con sistemi terzi e un'affidabilità pensata per funzioni critiche, incluso il pieno supporto alla telefonia (inbound/outbound e SIP trunking).

Elevenlabs

Samsung pronta a dire addio a Google Gemini per il Galaxy S26? Perplexity in pole position

Samsung sta per compiere una mossa a sorpresa: abbandonare Google Gemini in favore di Perplexity per la serie Galaxy S26. Il colosso sudcoreano, già early adopter di Gemini dopo il flop di Bixby, ora sembra puntare su Perplexity. L'accordo, stando a Bloomberg, è quasi chiuso: Perplexity verrà integrato nel browser web e nell'assistente Bixby, con la possibilità di diventare l'AI predefinita.

Ars Technica

Hugging Face presenta robot umanoidi da 3000 e 300 dollari: HopeJR e Reachy Mini

Hugging Face, il colosso dell'AI, ha appena svelato due robot umanoidi: HopeJR, un gigante con 66 gradi di libertà e un prezzo di $3.000, e Reachy Mini, una mini-unità da scrivania tra i $250 e $300, pronta a parlare, ascoltare e testare app AI. Il tutto grazie all'acquisizione di Pollen Robotics e alle partnership con The Robot Studio e Yaak. Non è la prima mossa nel settore: ricordi SO-101, il braccio robotico stampato in 3D? Ora con LeRobot, la piattaforma che include dati di training per macchine autonome, Hugging Face punta a democratizzare la robotica.

Gmail lancia i riassunti AI di default: ecco come cambia la tua inbox mobile

Da ora i riassunti generati dall'AI sono attivi di default su Gmail mobile. La funzionalità è già live per gli utenti business di Google Workspace, i premium di Google One e chi ha Gemini Education.

TechSpot

FLUX.1 Kontext: l'AI L che "legge" le tue immagini e le reinventa a tempo record!

Black Forest Labs lancia FLUX.1 Kontext, una nuova suite di modelli AI generativi che "legge" anche le tue foto di riferimento per generare e modificare immagini con una coerenza e velocità. Black Forest Labs dichiara performance fino a 8 volte superiori ai modelli di punta attuali come "GPT-Image".

In poche parole, la promessa è quella di unificare la generazione text-to-image con l'editing istantaneo basato sia su testo che su immagini di partenza, per un maggiore controllo creativo.

Cosa significa tutto ciò in pratica.

  • Personaggi Fedeli: hai un personaggio o un oggetto specifico? Il modello lo mantiene riconoscibile attraverso molteplici scene e modifiche.</p>
  • Ritocco: vuoi cambiare solo un dettaglio? Puoi farlo senza stravolgere il resto dell'immagine.
  • Prendi e Applica lo Stile: ti piace l'estetica di un'immagine? FLUX.1 la "cattura" e la applica a nuove creazioni guidate dai tuoi prompt testuali.
  • Modifiche Iterative: perfeziona la tua creazione un passo alla volta, aggiungendo istruzioni su istruzioni, mantenendo qualità e coerenza con latenza minima.

I Modelli in Campo: La famiglia FLUX.1 Kontext si presenta con tre punte di diamante:

  • [pro]: Il cavallo di battaglia per l'editing iterativo superveloce, capace di gestire input testuali e visivi per modifiche locali o trasformazioni complesse.
  • [max]: un modello sperimentale che spinge al massimo su aderenza ai prompt, generazione tipografica e consistenza nell'editing, senza sacrificare la velocità.
  • [dev]: una variante open-weight (12 miliardi di parametri) pensata per la ricerca e la personalizzazione, attualmente in beta privata (contattare kontext-dev@blackforestlabs.ai per partecipare).

I modelli [pro] e [max] sono già accessibili tramite API BFL e una rete di partner che include KreaAI, Freepik, Lightricks, OpenArt, LeonardoAI e fornitori di infrastruttura come FAL e Replicate.

Per chi vuole subito sperimentare senza scrivere una riga di codice, BFL lancia anche il "BFL Playground", un'interfaccia web intuitiva per testare i modelli FLUX più avanzati e validare i propri casi d'uso in tempo reale.

Performance. BFL ha rilasciato un report tecnico dettagliato (e annuncia un futuro benchmark, KontextBench) che posiziona FLUX.1 Kontext [pro] ai vertici per text editing e conservazione dei personaggi, oltre che per velocità. Onestamente, ammettono anche qualche limite attuale: possibili artefatti visivi dopo sessioni di editing molto lunghe e, in rari casi, una non perfetta aderenza alle istruzioni.

bfl.ai

Character.AI lancia video e social feed

Con Character.AI ora puoi creare video con i tuoi personaggi preferiti, da Zuckerberg a Musk, grazie ad AvatarFX e con Scenes e Streams condividi contenuti come in un social. La piattaforma, che già domina nelle chat 1:1, ti regala 5 video al giorno per dare sfogo alla creatività.

testing the anti-deepfake guardrails on character ai's avatarfx

Amanda Silberling (@amanda.omg.lol) 2025-06-02T18:47:06.298Z

TechCrunch

Sora ora è gratis su Bing

OpenAI ha appena reso Sora, il suo generatore di video AI, disponibile gratuitamente per tutti tramite Microsoft Bing Video Creator su mobile. Quando Sora è uscita a dicembre 2024 dopo 10 mesi di hype, aveva lasciato tutti a bocca aperta: clip da 60 secondi iperrealistiche, movimenti di camera da film e una fedeltà ai prompt impressionante. Eppure oggi Runway, Luma (USA), Kling e Hailuo MiniMax (Cina) stanno già facendo di meglio. Microsoft e OpenAI puntano sulla distribuzione di massa per riconquistare terreno.

VentureBeat

Se hai apprezzato queste informazioni, aiutatemi a crescere: condividile con la tua rete di colleghi e amici e invitatali a iscriversi per diffondere la conoscenza. Continuate a seguirci per rimanere sempre aggiornati nel mondo dell'intelligenza artificiale e scoprire nuove opportunità.

Condividi questo post