Corporate - Il giornale delle imprese

Akamai Technologies, annunciato il lancio della nuova piattaforma Cloud Inference

Karon (Akamai Technologies): “La rete che abbiamo costruito negli ultimi due decenni diventa vitale per il futuro dell’AI”

di Redazione Corporate

Akamai Technologies lancia la piattaforma Cloud Inference per inferenze AI più veloce, efficiente ed economica

Akamai Technologies, leader globale nella sicurezza informatica e nel cloud computing, annuncia il lancio di Akamai Cloud Inference, una nuova soluzione destinata a trasformare radicalmente il modo in cui le aziende gestiscono le applicazioni basate sull’Intelligenza Artificiale. Grazie a performance tre volte superiori in termini di throughput, una riduzione della latenza del 60% e un abbattimento dei costi fino all’86% rispetto agli hyperscaler tradizionali, Akamai punta a ridefinire gli standard dell’inferenza AI nel cloud.

Avvicinare i dati dell’intelligenza artificiale agli utenti e ai dispositivi è difficile ed è qui che i cloud tradizionali fanno fatica”, ha dichiarato Adam Karon, Chief Operating Officer and General Manager del Cloud Technology Group di Akamai. “Mentre il grosso del lavoro di formazione dei LLM continuerà a svolgersi nei grandi datacenter hyperscale, il lavoro di inferenza si svolgerà ai margini, dove la rete che Akamai ha costruito negli ultimi due decenni e mezzo diventa vitale per il futuro dell’AI e ci distingue da ogni altro fornitore di cloud sul mercato”.

Il nuovo servizio si basa sull’Akamai Cloud, la rete più distribuita al mondo, con oltre 4.100 punti di presenza in più di 130 paesi. Tra i principali punti di forza: calcolo avanzato con supporto per CPU, GPU e VPU, integrato con l’ecosistema Nvidia (Triton, TensorRT, NvFlare); gestione intelligente dei dati, grazie alla collaborazione con VAST Data e database vettoriali come Aiven e Milvus, per supportare la ricerca aumentata (RAG); containerizzazione flessibile basata su Kubernetes (incluso il nuovo Linode Kubernetes Engine - Enterprise), che garantisce scalabilità e prestazioni su scala petabyte; edge computing potenziato da WebAssembly, per inferenze AI a bassa latenza direttamente da applicazioni serverless, grazie alla collaborazione con Fermyon.

Mentre i grandi LLM (Large Language Models) restano fondamentali per la formazione nei data center, l’inferenza – ovvero l’applicazione operativa dell’IA – si sposta sempre più verso l’Edge, vicino agli utenti e ai dispositivi. Le aziende richiedono oggi modelli più leggeri, ottimizzati su casi d’uso specifici e meno dispendiosi, per ottenere valore immediato da dati proprietari in contesti concreti.

Formare un LLM è come creare una mappa, è necessario raccogliere i dati, analizzare il terreno e tracciare i percorsi. È un processo lento, che richiede molte risorse, ma una volta costruita, la mappa è molto utile. Con l’AI inference è come usare un GPS, applicando istantaneamente quella conoscenza, ricalcolando in tempo reale e adattandosi ai cambiamenti per portarti dove devi andare”, ha spiegato Karon. “L’inferenza è la prossima frontiera per l’IA”.

Le prime applicazioni di Akamai Cloud Inference sono già realtà: dall’assistenza vocale nei veicoli all’ottimizzazione del raccolto, dalla generazione automatica di descrizioni prodotto alla sentiment analysis, la piattaforma si sta dimostrando versatile in contesti industriali, agricoli e commerciali. L’adozione di un cloud più distribuito si conferma dunque strategica per un futuro in cui l’IA sarà sempre più integrata nei processi operativi e decisionali delle imprese.