A cura di Alix Leconte, VP for Service Providers (EMEA) di F5
Portare l’AI Generativa a un nuovo livello: come le telco possono supportare la rivoluzione
Negli ultimi 18 mesi, l’AI generativa ha conquistato il mondo. Nuovi servizi, come ChatGPT e DALL-E, sono in grado di creare testi, immagini e codice software in risposta alle richieste degli utenti, espressi nel linguaggio naturale.
Questo ha aperto nuove possibilità di produttività, e, secondo una ricerca recente di Bloomberg Intelligence, il mercato dell’AI generativa potrebbe valere fino a 1,3 trilioni di dollari entro il 2032.
Poiché il valore di questa tecnologia è ormai evidente, si sta assistendo a una crescente spinta alla creazione di versioni specifiche per settori e regioni dei Large Language Models (LLM) che consentono ai computer di generare testi e altri contenuti credibili.
Un LLM è un modello statistico di linguaggio addestrato su una vastissima mole di dati. Può essere utilizzato per generare e tradurre testi, oltre che per elaborare il linguaggio naturale. Gli LLM sono in genere basati su architetture di deep-learning.
In tutto il mondo, gli operatori di telecomunicazioni più all’avanguardia si stanno già attrezzando per assumere un ruolo fondamentale nella fornitura e nella sicurezza di questi LLM specializzati. In particolare, si prevede una forte domanda di soluzioni di GenAI end-to-end da parte di imprese, start-up, università e enti pubblici che non dispongono delle risorse necessarie per creare autonomamente l’infrastruttura informatica richiesta.
Si tratta di una tendenza molto interessante e, con adeguate misure di sicurezza, le soluzioni LLM-as-a-service potrebbero presto essere utilizzate per sviluppare applicazioni GenAI specifiche per settori cruciali come la sanità, l’istruzione, i trasporti e altri (inclusi i servizi di telecomunicazioni).
Le sfide
Quindi, quali sono i passi successivi per far funzionare tutto ciò e quali sono le principali sfide che ci aspettano?
Dato che devono essere reattivi, affidabili e sempre disponibili, molti LLM saranno probabilmente distribuiti su più cloud ed edge. In effetti, con la latenza appropriata, la GenAI sarà parte integrante delle proposte edge delle telecomunicazioni, poiché gli utenti avranno bisogno di risposte “conversazionali” in tempo reale.
Per le società di telecomunicazioni che hanno faticato a incrementare i ricavi, la fornitura di infrastrutture edge per supportare sistemi GenAI specializzati potrebbe rappresentare un nuovo importante mercato. Bloomberg Intelligence stima che il mercato delle infrastrutture GenAI-as-a-service (utilizzate per addestrare gli LLM) raggiungerà un valore di 247 miliardi di dollari entro il 2032.
Tuttavia, coloro che sperano di avere successo con la GenAI devono procedere con cautela. Le architetture distribuite, che possono aumentare la superficie di attacco potenziale, richiedono soluzioni di sicurezza robuste e scalabili per prevenire la perdita di dati e informazioni personali, sia durante la fase di addestramento che durante l’inferenza dell’intelligenza artificiale.
Dal momento che i malintenzionati utilizzano sempre più spesso tecniche di movimento laterale per infiltrarsi in sistemi interconnessi, è fondamentale che le società di telecomunicazioni mettano in sicurezza proteggano sia le applicazioni che le API utilizzate da terze parti per accedere all’LLM-as-a-service.