World AI Forum Cannes 9 febbraio 2023

Ho visitato il World AI Forum di Cannes il 9 Febbraio 2023. C’era parecchia gente, anche se non una folla esagerata, tante aziende che proponevano le loro soluzioni, e, a parte i grossi players sponsor dell’evento (IBM e AMD) ed alcune aziende USA dai prodotti un po’ piu’ strutturati, moltissime start-up, francesi, chiaramente,(molte provenienti dal polo tecnologico di Sophia Antipolis), una squadra italiana con molti e buoni rappresentanti sotto l’egida di alcune università del Triveneto e di Confindustria del Friuli, qualche azienda USA e poche altre nazioni.

Ho parlato con almeno una trentina di CEO, ho visto la demo di almeno attrettanti prodotti, ascoltato un paio di mediocri conferenze e speech di start-ups.

Le impressioni a caldo che ne ho ricavato sono quelle di una tecnologia, l’intelligenza artificiale, ancora un po’ acerba, dalle potenzialità ancora non ben definite a livello commerciale, e suscettibile di cambiamenti ed evoluzioni molto rapidi già nel breve periodo.

In particolare non ho visto soluzioni semplici nè nella definizione nè poi nella gestione, e nemmeno economiche, ammesso e non concesso che fosse chiaro il motivo per cui tali soluzioni fossero strategiche per un’azienda normale, diciamo non una multinazionale con milioni di clienti. Molta confusione, molti malintesi.


Ma a che serve?

Dal punto di vista del prodotto in se stesso, le finalità proposte sono sostanzialmente divise in due grosse famiglie, quelle basate sulla computer vision, ossia sull’analisi di dati come immagini e video e quelle basate sull’analisi di dati testuali.

Computer vision

In questa famiglia le finalità dei prodotti proposti sono almeno ben chiari, anche se non si trattta di niente di nuovo sotto il sole: analisi facciale, analisi dei movimenti. Soluzioni di video sorveglianza o di analisi dei movimenti di un atleta in riferimento al miglioramento della propria prestazione o all’analisi tecnico tattica di una competizione.

Qualche interessante idea di soluzioni medicali, come la diagnostica evolutiva basata sulll’analisi di ecografie, tac etc. o soluzioni per l’assistenza di persone anziane al proprio domicilio basate sull’analisi del comportamento.

Training di modelli predittivi o generativi basati sull’analisi del linguaggio naturale

E qui entriamo in mare aperto. Sinteticamente le finalità proposte dagli applicativi in esposizione sono riferite ad:

1) Assistenti virtuali (chatbot): intelligenze artificiali generative che opportunamente istruite sono in grado di colloquiare con un utente per spiegargli le finalità o guidarlo nell’utilizzo di un prodotto o servizio

2) Triggers che scantenano automaticamente degli eventi al mutare delle condizioni di normalità a cui il modello è stato allenato. Questo modello puo’ essere applicato praticamente a tutto: ambiente, trasporti, energia, industria, sicurezza, assistenza clienti etc etc.

Un grande assente: i dati

Invariabilmente, ad ogni demo, ad ogni spiegazione, il tuo interlocutore ti dice: “…voi fate confluire sul sistema i vostri dati in modo da istruire il modello…”. I dati. Ma ne servono tanti, centinaia di Mb di dati, Gb di dati, per istruire un modello in maniera conveniente. Dei dati si nutre l’ AI, ne è vorace.

E chi ce li ha i dati? Sicuramente il 90% delle aziende medie/grandi non ha dati strutturati, quelle piccole non ne hanno proprio. Ne risulta che l’ AI è a loro interdetta, a meno che non si attrezzino per raccogliere in qualche modo e strutturare dei dati (ma quali, poi, e come?).

Ne risulta che per la stragrande maggioranza delle imprese i servizi offerti dai prodotti AI non sono accessibili. Ma questo chiaramente non deve essere detto, e per supplire alla carenza di senso pragmatico le start-up offrono delle interfacce utente molto ma molto belle, curate nel dattaglio, rigorosamente no-code. Interfacce che pero’ hanno il difetto di essere molto difficili da usare concettualmente, nel senso che seguendo i procedimenti logici della costruzione di un modello AI, anche l’utilizzatore deve conoscere questi concetti e non puo’ essere, almeno all’inizio, un “mechanical turk”.

Da aggiungere che la commodity “no-code” rende manuali ed esageratamente lunghe operazioni di inserimento a taggatura dei famosi dati, cosa che sarebbe invece molto piu’ rapida se fatta tramite due rigghe di codice (o fatta eseguire dalle aziende che offrono proprio questo servizio di creazione di pipelines).

Posso vedere una demo?

No, non ci sono demo di prodotti funzionanti al World AI Forum di Cannes 2023. Tanti video, tante slides, brochures, parole ma di demo funzionanti ne ho vista una sola.

Quanto costa?

E qui le note dolenti: tanto, costa tanto. Perchè è una tecnologia difficie da padroneggiare ed in continua evoluzione, perchè richiede tante risorse macchina, e perchè la fase di fine-tuning che deve essere specifica per le esigenze di ogni cliente, richiede tanto ma tanto lavoro di controllo. Ci vogliono almeno 10/20K come cheap e poi le spalle larghe per stare nel gioco, a seconda ovviamente degli obiettivi che ci si pongono, per le soluzioni piu’ banali.

Conclusioni

La sensazione generale è stata quindi di una tecnologia acora un po’ acerba, non sicuramente democratizzata come OpenAi pensa di aver fatto, i cui effettivi utilizzi possano al momento essere riservati a company medio/grandi che possano sostenere investimenti a lungo termine pur di avere un vantaggio competitivo, e molto interesse da parte della comunità scientifica sotto il cui cappello istituzionale, ossia grazie ai finanziamenti nazionali ed europei, possono nascere e sopravvivere decine di start-up dove una giovane categoria di tecnici molto specializzati si forma e conforma ad una mentalità AI.

Non tutto è AI

In realtà molte delle cose che tutte queste entità si propongono di fare, possono essere fatte, e secondo me in maniera piu’ efficace, con le tecnologie attuali, e non c’è nessun bisogno di intelligenza artificiale, faccio due esempi perchè sono cose di cui mi occupo concretamente:

1) La ricerca testuale: non cè bisogno di un modello istruito per organizzare i documenti aziendali e cercare le informazioni nel loro testo: i motori di ricerca nosql che possono venire collegati a qualsiasi web application sono molto piu’ efficienti e precisi di qualsiasi AI che non sia GPT davinci 3

2) I chatbot conversazionali, ossia gli assistenti virtuali: quelli che produciamo adesso sul modello di un alberatura ben definita è sicuramente piu’ semplice e piu’ veloce da fare perchè risponde esattamente alle esigenze per cui è stato scritto. Un assistente virtuale non deve stare li’ a chiaccherare con il cliente ma lo deve portare al punto il piu’ velocemente possibile. E un chatbot trazizionale non ha bisogno di 1GB di dati e mesi di addestramento prima di poter funzionare in produzione.

3) Le pipelines di dati: da anni trasferiamo dati fra le sorgenti e le destinazioni piu’ svariate, da anni le strutturiamo, da anni scateniamo triggers a seconda dell’esistenza di cambiamenti o anomalie. Ma questo non è AI.

Open source

Volevo segnalare in conclusione questo tool per sviluppatori: Clemlab é una sorta di distro linux con tutto lo stack open source necessario per creare soluzioni di big data e ai, oltre a molte altre cose interessanti.