Almawave - Un salto nel futuro dell'AI con i nuovi modelli Velvet
L'obiettivo è rispondere alle esigenze effettive e concrete in settori come Pubblica Amministrazione, Sanità, Sicurezza, Finanza, Trasporti

Più potenti, più efficienti, più sostenibili. A pochi mesi di distanza dal rilascio di Velvet 2B e Velvet 14B, Almawave ha presentato i nuovi modelli linguistici di ultima generazione, "volti a rafforzare il panorama europeo dei Large Language Model e garantire un’IA accessibile e multilingue, efficace e adattabile a molteplici casi d’uso". Lo si legge nel comunicato odierno della società italiana attiva in ambito Data & Artificial Intelligence.
Con i nuovi modelli "proseguiamo il cammino avviato che ci vede impegnati da molti anni sulle tecnologie del linguaggio e da oltre un anno sulla produzione di IA generativa europea", ha detto Valeria Sandei, amministratore delegato di Almawave. Ed è grazie alle "competenze maturate" che siamo oggi in grado" di sviluppare questa tecnologia "integralmente nei nostri laboratori, trasformandola in soluzioni concrete e generando valore per istituzioni e imprese".
Non ci si ferma agli LLM: "La nostra visione guarda infatti alle applicazioni finali, alle soluzioni multimodali e multiagente, capaci di rispondere a esigenze effettive e concrete in settori come Pubblica Amministrazione, Sanità, Sicurezza, Finanza, Trasporti". La manager a poi concluso: "Lo facciamo in Italia, ma sempre più anche a livello internazionale".
Come funzionano i nuovi modelli
Velvet 25B, in particolare, è un modello linguistico avanzato con 25 miliardi di parametri in grado di gestire contesti complessi, ossia può comprendere, mantenere e utilizzare informazioni articolate o prolungate nel tempo all’interno di una conversazione, di un documento o di un flusso di dati.
Mentre Velvet Speech 2B è un modello multimodale testo-voce da 2 miliardi di parametri, che consente interazioni vocali in tempo reale, compresa la traduzione del parlato.
Rispetto ai sistemi precedenti, sono ottimizzati per utilizzare meno risorse computazionali (GPU, memoria etc.) a parità di prestazioni, consentendo dunque un minor consumo energetico. Nel comunicato, inoltre, si fa riferimento alla loro adozione su infrastrutture ridotte, indicando che i nuovi modelli possono avere elevate prestazioni anche senza la necessità di grandi data center o cluster di GPU di fascia alta, grazie alla loro efficienza architetturale e computazionale.
Inoltre, sono stati sviluppati in conformità con le normative europee, compreso il GDPR, nonché sfruttando algoritmi per la mitigazione dei bias linguistici e culturali.