Seeweb, gruppo Dhh lancia Ai Accelerator con i chip del futuro. Si riducono costi e consumo energetico

intelligenza artificiale

Seeweb e Dhh lanciano un acceleratore di Intelligenza Artificiale che consente di gestire in particolar modo le fasi di inferenza abbattendo i costi, senza rinunciare alle prestazioni elevate che richiede l’AI e garantendo un’elevata scalabilità, e quindi prestazioni flessibili e adattive.

La nuova tecnologia è canadese

L’Ai Accelerator sfrutta infatti la tecnologia avanzata di una start-up canadese, Tenstorrent. Utilizza in particolare le Npu (Neural Processing Unit) messe a punto da Tenstorrent, che necessitano di un quantitativo di memoria ridotto e si prestano estremamente bene per lo sviluppo di Small Language Model o Sml. Le Npu con cui è stato possibile per la compagnia italiana leader nelle infrastrutture cloud per Ia e Ml costruire il nuovo ‘Ai Accelerator’ hanno un costo e un consumo energetico – e quindi anche un impatto ambientale – notevolmente più contenuti rispetto alle canoniche Gpu, su cui Seeweb ha già da tempo costruito un’offerta cloud competitiva.

Applicabile anche nell’addestramento

La soluzione messa a punto da Seeweb può essere impiegata in maniera efficace anche nella fase di addestramento, ma dà il suo meglio quando viene utilizzata per il “light machine learning” e per i modelli piccoli, soprattutto in fase di inferenza. Si tratta del processo in cui un modello di IA già addestrato genera un contenuto nuovo elaborando dei dati che non aveva acquisito in precedenza. Grazie a queste caratteristiche, l’acceleratore è in grado di fornire un’elevata capacità di elaborazione AI per gestire attività complesse basate sui dati.