-
AI generativa
È arrivata l'AI generativa:
sei pronto?Innovazione Intel® integrata
-
-
-
Da dove iniziare
Una nuova era di AI generativa
L'AI generativa viene utilizzata su vasta scala da organizzazioni e persone, determinando un impatto sociale significativo. L'AI di livello consumer, come ChatGPT e DALL-E, ha conquistato l'immaginazione di tutti con la sua capacità di generare contenuti. Ma l'impatto dell'AI generativa sulle organizzazioni promette ancora più valore, tra cui maggiore produttività, riduzione dei costi e la trasformazione del nostro modo di lavorare.
-
Il 76% dei responsabili IT ritiene che la GenAI sarà significativa, se non trasformativa, per la loro organizzazione.
76%
L'AI generativa trasformerà le organizzazioni
L'AI generativa offre vantaggi, ma comporta anche nuove sfide e rischi. Nell'intraprendere il loro percorso verso l'AI generativa, le organizzazioni non possono mettere a rischio la fiducia dei clienti e l'elevato valore dei loro dati per ottenere il risultato di arrivare prime al traguardo.
Il 76% dei responsabili IT ritiene che la GenAI sarà significativa, se non trasformativa, per la loro organizzazione.76%
-
-
-
Raggiungi il successo dell'AI generativa
Rilevare i casi d'uso idonei è fondamentale. I leader aziendali e IT devono assegnare priorità ai casi d'uso in base a questi criteri:
-
-
-
Il ruolo fondamentale dei dati nell'AI generativa
Dati e rischi vanno di pari passo. I dati portano avanti i progetti di AI generativa, ma bisogna anche valutare i potenziali rischi associati all'hosting di modelli di AI generativa nei public cloud, tra cui: perdita di proprietà intellettuale, perdita di dati, problemi di privacy, violazioni della conformità, perdita di credibilità e integrità, contenuti non imparziali e violazione degli IP.
-
-
Gestione del rischio e miglioramento del valore
All'inizio del percorso, è essenziale allineare gli investimenti in tecnologia e la formazione per aumentare la maturità operativa, ridurre i rischi, migliorare il controllo e massimizzare il valore per l'organizzazione. Con l'AI generativa enterprise-ready, ottieni il controllo su chi può accedere ai dati.
-
-
AI generativa enterprise-ready AI generativa immatura Maturità operativa Rischio Grafico che mostra come il rischio (asse Y) diminuisce nel tempo man mano che si raggiunge la maturità operativa (asse X) con la gestione dei dati. L'inizio della pendenza del grafico indica l'AI generativa immatura con rischio elevato e bassa maturità operativa. L'andamento discendente sul grafico indica che l'AI enterprise-ready riduce il rischio e rappresenta una maturità operativa elevata.
-
-
-
-
-
USA L'AI CON I TUOI DATI
Mantieni i modelli di AI generativa vicini ai dati
-
-
Comprendere i rischi e i vantaggi delle diverse opzioni di deployment è fondamentale per determinare il posizionamento ottimale del carico di lavoro per l'AI generativa della tua organizzazione. Quando si tratta di portare l'AI nei tuoi dati, l'implementazione di istanze private di modelli linguistici di grandi dimensioni (LLM) di AI generativa, come Llama 2 o Falcon, offre vantaggi in termini di velocità e deployment, ma è possibile che questi comportino anche costi più elevati e altri svantaggi. In ogni caso, l'AI generativa interna probabilmente fornisce il massimo valore per i tuoi sforzi iniziali.
In termini di posizionamento dei carichi di lavoro, l'AI generativa non è diversa da qualsiasi altro carico di lavoro. Per ottenere i risultati migliori, mettili nell'ambiente che ha più senso in base ai requisiti aziendali e alle esigenze tecniche.
Il diagramma sottostante illustra i concetti e i framework che entrano in gioco quando si determina il posizionamento dei carichi di lavoro di AI generativa.
-
-
-
5 motivi per portare l'AI nei dati
-
-
-
-
Dove risiedono i dati Costo Veloce time-to-value Accuratezza e personalizzazione Casi d'uso generici Accesso protetto public cloud Private cloud Un grafico che rappresenta sei fattori da considerare nella scelta tra private cloud o public cloud per il posizionamento del carico di lavoro di AI generativa. "Dove risiedono i dati" e "Accesso protetto" tendono fortemente verso il private cloud. "Costo" propende moderatamente verso il private cloud, mentre "Accuratezza e personalizzazione" tende leggermente verso il private cloud. "Time-to-value più rapido" propende leggermente verso il public cloud. Inoltre, "Casi d'uso generici" tende notevolmente verso il public cloud.
-
-
Gestione dei dati per l'AI generativa
La maggior parte delle organizzazioni adotta un approccio duplice alla propria strategia per l'AI generativa. Sperimenta deployment tattici per imparare ed evitare di rimanere indietro, sviluppando al contempo una strategia a lungo termine per soddisfare i numerosi casi d'uso che emergeranno nel tempo. Questo approccio richiede una strategia di gestione dei dati a due tier.
PREPARAZIONE DEI DATIPROGETTAZIONE DEI DATI -
-
-
Preparazione dei dati
-
A breve termine: preparazione dei dati
La preparazione dei dati include l'identificazione dei data set e la definizione dei requisiti dei dati, seguite dalla pulizia, dall'etichettatura e dall'anonimizzazione dei dati e quindi dalla loro normalizzazione nelle origini dati. Inoltre, richiede la creazione di pipeline di dati per integrare i dati in un modello.
-
-
-
Progettazione dei dati
-
A lungo termine: progettazione dei dati
Le organizzazioni necessitano di un repository di dati ben strutturato, come un data lake o un data lakehouse, per integrare i dati con i modelli di AI generativa. Prendi in considerazione la creazione del data lake in modo iterativo per espandere progressivamente le funzionalità del repository dei dati di AI generativa, mentre il team migliora le proprie competenze di gestione dei dati e AI generativa.
-
-
-
-
-
-
"Questa collaborazione [con Dell Technologies] consente alle aziende di creare i propri sistemi di AI sfruttando l'incredibile innovazione della community open source, beneficiando al contempo della sicurezza, della conformità e delle prestazioni dei sistemi Dell."
-
-
-
-
-
-
DIMENSIONA L'AI IN MODO CORRETTO
Definisci l'infrastruttura e dimensiona l'AI in modo corretto
-
Le soluzioni AI Dell per l'inferenza dei modelli LLM on-premise sono fino al 75% più convenienti rispetto al public cloud. 1
75%
I dati univoci ti consentono di utilizzare casi d'uso specifici del dominio e dell'azienda, creando valore di settore tramite attività o funzioni per le quali hai la proprietà esclusiva dei dati. Diversi tipi di AI generativa hanno punti di ingresso e investimenti corrispondenti necessari per garantirne il successo. Gli LLM addestrati su grandi quantità di testo sono come enciclopedie: utili per scopi generici, ma magari non adatti a rispondere a domande specifiche sui tuoi dati organizzativi.
Le soluzioni AI Dell per l'inferenza dei modelli LLM on-premise sono fino al 75% più convenienti rispetto al public cloud. 175%
-
-
-
I dati migliorano notevolmente l'efficienza e il valore dell'AI generativa
-
Funzionalità limitate Il più compatto/il più conveniente Competenza nel dominio Il più accurato Dimensioni ridotte Più accurato Più allucinazioni Costoso e a uso intensivo di energia Varietà di casi d'uso scopi generici Specifico per l'azienda Specifico per il dominio Modelli linguistici di grandi dimensioni valore Grafico che mostra la quantità relativa di dati necessari per 3 tipi di modelli di AI, nonché il loro valore per il business. I modelli linguistici di grandi dimensioni, o LLM, sono destinati a casi d'uso generici e utilizzano la maggior parte dei dati. Sono costosi, a uso intensivo di energia e più soggetti alle allucinazioni. L'AI specifica del dominio utilizza dati più specifici ma in minore quantità. Possiede funzionalità limitate, ma è più rilevante per il tuo business e ha più valore. L'AI specifica dell'azienda utilizza ancora meno dati, ma è la più specifica e accurata e offre il massimo valore per il tuo business.
-
-
-
Modelli di deployment AI
Il modello di AI scelto dipenderà dal livello di preparazione alla Data Science dell'organizzazione, dai modelli di deployment e dalle relative implicazioni.
-
Modello pre-addestrato
Definito "prompt engineering", questo approccio comporta la formulazione di una domanda a un modello pre-addestrato per ricevere un risultato.
Esempio: ChatGPTAumento del modello
Migliora il modello di AI generativa aggiungendo i dati per fornire un contesto aggiuntivo per le risposte, come l'inferenza, che include casi d'uso come la Retrieval-Augmented Generation (RAG).
Ottimizzazione dei modelli
Questo comporta l'adeguamento della ponderazione del modello e l'integrazione dei dati. Sebbene porti a risultati migliori, richiede anche più sforzi durante la configurazione.
Addestramento del modello
Include la creazione di un modello specifico e il relativo addestramento con un data set. Questo in genere richiede il lavoro e le risorse maggiori ed è spesso riservato alla risoluzione di problemi complessi.
Impegno Costo Valore e
differenziazioneIntegrazione dei dati Infrastruttura Client–server Client–server Ottimizzato tramite GPU Grosso deployment di GPU Competenze Operazioni IT Sviluppatore Data Scientist Data Scientist Riferimento per il deployment semplificato Validated Design Progetto di riferimento Validated Design Progetto di riferimento
-
Scegli l'infrastruttura giusta per il tuo modello
L'infrastruttura che supporta il deployment dell'AI generativa dipende principalmente dai requisiti di elaborazione, influenzati dal tipo di modello, dalle dimensioni del modello e dal numero di utenti. Tra le considerazioni aggiuntive vi sono la capacità di storage necessaria per i dati utilizzati durante il deployment, l'addestramento e l'ottimizzazione del modello.
-
ELABORAZIONE GENERALE (orientata alla CPU) OTTIMIZZATO PER L'AI (a uso intensivo della GPU) Laptop Dell Workstation Precision Server rack PowerEdge Server PowerEdge XE Storage ObjectScale Storage PowerScale Storage PowerFlex Switch PowerSwitch serie Z Addestramento del modello Ottimizzazione del modello Aumento del modello Modello pre-addestrato Milioni di parametri Miliardi di parametri Trilioni di parametri Numero ridotto di utenti Numero elevato di utenti Grafico che rappresenta i tre requisiti dell'AI generativa e ne esegue la mappatura sulle soluzioni hardware Dell appropriate. Le soluzioni hardware spaziano, in termini di potenza, dalle opzioni di elaborazione generale, che sono orientate alla CPU, fino alle opzioni ottimizzate per l'AI, che sono a uso intensivo della GPU. Le opzioni specifiche partono dai notebook Dell sull'estremità dedicata all'elaborazione generale, proseguono attraverso le workstation Precision e i server PowerEdge, terminando con i server PowerEdge XE sull'estremità che riguarda le soluzioni ottimizzate per l'AI. Si noti che è possibile utilizzare l'hardware di storage e di rete Dell su tutta la gamma. I tre attributi dell'infrastruttura di AI generativa vengono mappati su queste soluzioni in una progressione che richiede una potenza di elaborazione sempre maggiore. La complessità del modello varia dall'utilizzo di modelli pre-addestrati all'aumento o all'ottimizzazione dei modelli, fino all'addestramento di nuovi modelli. Il numero dei parametri varia da milioni a miliardi, fino a raggiungere i trilioni.
-
-
-
-
-
Accelera il percorso verso l'AI
Inizia con un risultato concreto immediato
La Retrieval-augmented generation (RAG) è un punto di partenza ideale per molte organizzazioni, in quanto arricchisce i modelli della GenAI con i relativi dati senza necessità di riaddestramento. Scopri i casi d'uso sulla configurazione della RAG che possono essere applicati per migliorare il business e i dati.
-
Caso d'uso RAG
Applica la RAG a un dataset PDF personalizzato
-
PROGETTAZIONE CONVALIDATA DELL PER RAG
Implementa un assistente digitale su Dell APEX Cloud Platform for Red Hat OpenShift
-
-