• AI generativa

    È arrivata l'AI generativa:
    sei pronto?

    Innovazione Intel® integrata
      • Da dove iniziare

        Una nuova era di AI generativa

        L'AI generativa viene utilizzata su vasta scala da organizzazioni e persone, determinando un impatto sociale significativo. L'AI di livello consumer, come ChatGPT e DALL-E, ha conquistato l'immaginazione di tutti con la sua capacità di generare contenuti. Ma l'impatto dell'AI generativa sulle organizzazioni promette ancora più valore, tra cui maggiore produttività, riduzione dei costi e la trasformazione del nostro modo di lavorare.

      • 76%

        Il 76% dei responsabili IT ritiene che la GenAI sarà significativa, se non trasformativa, per la loro organizzazione.

        L'AI generativa trasformerà le organizzazioni

        L'AI generativa offre vantaggi, ma comporta anche nuove sfide e rischi. Nell'intraprendere il loro percorso verso l'AI generativa, le organizzazioni non possono mettere a rischio la fiducia dei clienti e l'elevato valore dei loro dati per ottenere il risultato di arrivare prime al traguardo.

        76%

        Il 76% dei responsabili IT ritiene che la GenAI sarà significativa, se non trasformativa, per la loro organizzazione.
      • Raggiungi il successo dell'AI generativa

        Rilevare i casi d'uso idonei è fondamentale. I leader aziendali e IT devono assegnare priorità ai casi d'uso in base a questi criteri:


      • Persone e team

        Prepara l'organizzazione a cogliere le opportunità offerte dalla GenAI, con l'IT concentrato sulla fattibilità e i leader aziendali impegnati nell'ottimizzazione per promuovere la crescita.

      • Processi e policy

        Definisci e comunica in che modo l'organizzazione utilizzerà l'AI e assicurati che rappresenti un aspetto cruciale nei processi aziendali.

      • Technology

        Offri l'accesso protetto all'AI generativa in tutta l'organizzazione, evitando istanze di Shadow AI per garantire l'integrità e la conformità dei dati.

      • Strategia

        Acquisisci lo stato attuale "così com'è" del tuo ambiente per determinare la vision strategica e i principi guida per i futuri progetti di AI generativa.

      • Il ruolo fondamentale dei dati nell'AI generativa

        Dati e rischi vanno di pari passo. I dati portano avanti i progetti di AI generativa, ma bisogna anche valutare i potenziali rischi associati all'hosting di modelli di AI generativa nei public cloud, tra cui: perdita di proprietà intellettuale, perdita di dati, problemi di privacy, violazioni della conformità, perdita di credibilità e integrità, contenuti non imparziali e violazione degli IP.

        • Gestione del rischio e miglioramento del valore

          All'inizio del percorso, è essenziale allineare gli investimenti in tecnologia e la formazione per aumentare la maturità operativa, ridurre i rischi, migliorare il controllo e massimizzare il valore per l'organizzazione. Con l'AI generativa enterprise-ready, ottieni il controllo su chi può accedere ai dati.

      • AI generativa enterprise-ready AI generativa immatura Maturità operativa Rischio
        Grafico che mostra come il rischio (asse Y) diminuisce nel tempo man mano che si raggiunge la maturità operativa (asse X) con la gestione dei dati. L'inizio della pendenza del grafico indica l'AI generativa immatura con rischio elevato e bassa maturità operativa. L'andamento discendente sul grafico indica che l'AI enterprise-ready riduce il rischio e rappresenta una maturità operativa elevata.
      • USA L'AI CON I TUOI DATI

        Mantieni i modelli di AI generativa vicini ai dati

        • Comprendere i rischi e i vantaggi delle diverse opzioni di deployment è fondamentale per determinare il posizionamento ottimale del carico di lavoro per l'AI generativa della tua organizzazione. Quando si tratta di portare l'AI nei tuoi dati, l'implementazione di istanze private di modelli linguistici di grandi dimensioni (LLM) di AI generativa, come Llama 2 o Falcon, offre vantaggi in termini di velocità e deployment, ma è possibile che questi comportino anche costi più elevati e altri svantaggi. In ogni caso, l'AI generativa interna probabilmente fornisce il massimo valore per i tuoi sforzi iniziali.

          In termini di posizionamento dei carichi di lavoro, l'AI generativa non è diversa da qualsiasi altro carico di lavoro. Per ottenere i risultati migliori, mettili nell'ambiente che ha più senso in base ai requisiti aziendali e alle esigenze tecniche.

          Il diagramma sottostante illustra i concetti e i framework che entrano in gioco quando si determina il posizionamento dei carichi di lavoro di AI generativa.

      • Dove risiedono i dati Costo Veloce time-to-value Accuratezza e personalizzazione Casi d'uso generici Accesso protetto public cloud Private cloud
        Un grafico che rappresenta sei fattori da considerare nella scelta tra private cloud o public cloud per il posizionamento del carico di lavoro di AI generativa. "Dove risiedono i dati" e "Accesso protetto" tendono fortemente verso il private cloud. "Costo" propende moderatamente verso il private cloud, mentre "Accuratezza e personalizzazione" tende leggermente verso il private cloud. "Time-to-value più rapido" propende leggermente verso il public cloud. Inoltre, "Casi d'uso generici" tende notevolmente verso il public cloud.
        • Gestione dei dati per l'AI generativa

          La maggior parte delle organizzazioni adotta un approccio duplice alla propria strategia per l'AI generativa. Sperimenta deployment tattici per imparare ed evitare di rimanere indietro, sviluppando al contempo una strategia a lungo termine per soddisfare i numerosi casi d'uso che emergeranno nel tempo. Questo approccio richiede una strategia di gestione dei dati a due tier.

        PREPARAZIONE DEI DATI
        PROGETTAZIONE DEI DATI
        • Preparazione dei dati

        • Rilevamento dei dati

          Identifica i data set e definisci i requisiti dei dati

        • Esplorazione e arricchimento dei dati

          Progetta e implementa la pipeline di dati per l'etichettatura, la pulizia, il labeling e l'anonimizzazione dei dati


        • A breve termine: preparazione dei dati

          La preparazione dei dati include l'identificazione dei data set e la definizione dei requisiti dei dati, seguite dalla pulizia, dall'etichettatura e dall'anonimizzazione dei dati e quindi dalla loro normalizzazione nelle origini dati. Inoltre, richiede la creazione di pipeline di dati per integrare i dati in un modello.

        • Progettazione dei dati

        • Acquisizione dei dati

          Integra i dati aziendali in modelli linguistici di grandi dimensioni

        • Osservabilità e prestazioni

          Verifica la conformità dei dati trasformati agli obiettivi


        • A lungo termine: progettazione dei dati

          Le organizzazioni necessitano di un repository di dati ben strutturato, come un data lake o un data lakehouse, per integrare i dati con i modelli di AI generativa. Prendi in considerazione la creazione del data lake in modo iterativo per espandere progressivamente le funzionalità del repository dei dati di AI generativa, mentre il team migliora le proprie competenze di gestione dei dati e AI generativa.


        • "Questa collaborazione [con Dell Technologies] consente alle aziende di creare i propri sistemi di AI sfruttando l'incredibile innovazione della community open source, beneficiando al contempo della sicurezza, della conformità e delle prestazioni dei sistemi Dell."

          Jeff Boudier, Responsabile prodotto e crescita, Hugging Face
      • DIMENSIONA L'AI IN MODO CORRETTO

        Definisci l'infrastruttura e dimensiona l'AI in modo corretto

      • 75%

        Le soluzioni AI Dell per l'inferenza dei modelli LLM on-premise sono fino al 75% più convenienti rispetto al public cloud. 1

        I dati univoci ti consentono di utilizzare casi d'uso specifici del dominio e dell'azienda, creando valore di settore tramite attività o funzioni per le quali hai la proprietà esclusiva dei dati. Diversi tipi di AI generativa hanno punti di ingresso e investimenti corrispondenti necessari per garantirne il successo. Gli LLM addestrati su grandi quantità di testo sono come enciclopedie: utili per scopi generici, ma magari non adatti a rispondere a domande specifiche sui tuoi dati organizzativi.

        75%

        Le soluzioni AI Dell per l'inferenza dei modelli LLM on-premise sono fino al 75% più convenienti rispetto al public cloud. 1
      •  


         
      • I dati migliorano notevolmente l'efficienza e il valore dell'AI generativa

      • Funzionalità limitate Il più compatto/il più conveniente Competenza nel dominio Il più accurato Dimensioni ridotte Più accurato Più allucinazioni Costoso e a uso intensivo di energia Varietà di casi d'uso scopi generici Specifico per l'azienda Specifico per il dominio Modelli linguistici di grandi dimensioni valore
        Grafico che mostra la quantità relativa di dati necessari per 3 tipi di modelli di AI, nonché il loro valore per il business. I modelli linguistici di grandi dimensioni, o LLM, sono destinati a casi d'uso generici e utilizzano la maggior parte dei dati. Sono costosi, a uso intensivo di energia e più soggetti alle allucinazioni. L'AI specifica del dominio utilizza dati più specifici ma in minore quantità. Possiede funzionalità limitate, ma è più rilevante per il tuo business e ha più valore. L'AI specifica dell'azienda utilizza ancora meno dati, ma è la più specifica e accurata e offre il massimo valore per il tuo business.
      • Modelli di deployment AI

        Il modello di AI scelto dipenderà dal livello di preparazione alla Data Science dell'organizzazione, dai modelli di deployment e dalle relative implicazioni.

      • Modello pre-addestrato

        Definito "prompt engineering", questo approccio comporta la formulazione di una domanda a un modello pre-addestrato per ricevere un risultato.
        Esempio: ChatGPT

        Aumento del modello

        Migliora il modello di AI generativa aggiungendo i dati per fornire un contesto aggiuntivo per le risposte, come l'inferenza, che include casi d'uso come la Retrieval-Augmented Generation (RAG).

        Ottimizzazione dei modelli

        Questo comporta l'adeguamento della ponderazione del modello e l'integrazione dei dati. Sebbene porti a risultati migliori, richiede anche più sforzi durante la configurazione.

        Addestramento del modello

        Include la creazione di un modello specifico e il relativo addestramento con un data set. Questo in genere richiede il lavoro e le risorse maggiori ed è spesso riservato alla risoluzione di problemi complessi.

        Impegno Poco impegno Impegno medio Impegno elevato Impegno significativo
        Costo Costo ridotto Costo medio Costo elevato Costo significativo
        Valore e
        differenziazione
        Valore e differenziazione minimi Valore e differenziazione medi Valore e differenziazione elevati Valore e differenziazione significativi
        Integrazione dei dati Nessuna integrazione dei dati Integrazione dei dati elevata Integrazione dei dati elevata Integrazione dei dati significativa
        Infrastruttura Client–server Client–server Ottimizzato tramite GPU Grosso deployment di GPU
        Competenze Operazioni IT Sviluppatore Data Scientist Data Scientist
        Riferimento per il deployment semplificato Validated Design Progetto di riferimento Validated Design Progetto di riferimento
      • Scegli l'infrastruttura giusta per il tuo modello

        L'infrastruttura che supporta il deployment dell'AI generativa dipende principalmente dai requisiti di elaborazione, influenzati dal tipo di modello, dalle dimensioni del modello e dal numero di utenti. Tra le considerazioni aggiuntive vi sono la capacità di storage necessaria per i dati utilizzati durante il deployment, l'addestramento e l'ottimizzazione del modello.

      • ELABORAZIONE GENERALE (orientata alla CPU) OTTIMIZZATO PER L'AI (a uso intensivo della GPU) Laptop Dell Workstation Precision Server rack PowerEdge Server PowerEdge XE Storage ObjectScale Storage PowerScale Storage PowerFlex Switch PowerSwitch serie Z Addestramento del modello Ottimizzazione del modello Aumento del modello Modello pre-addestrato Milioni di parametri Miliardi di parametri Trilioni di parametri Numero ridotto di utenti Numero elevato di utenti
        Grafico che rappresenta i tre requisiti dell'AI generativa e ne esegue la mappatura sulle soluzioni hardware Dell appropriate. Le soluzioni hardware spaziano, in termini di potenza, dalle opzioni di elaborazione generale, che sono orientate alla CPU, fino alle opzioni ottimizzate per l'AI, che sono a uso intensivo della GPU. Le opzioni specifiche partono dai notebook Dell sull'estremità dedicata all'elaborazione generale, proseguono attraverso le workstation Precision e i server PowerEdge, terminando con i server PowerEdge XE sull'estremità che riguarda le soluzioni ottimizzate per l'AI. Si noti che è possibile utilizzare l'hardware di storage e di rete Dell su tutta la gamma. I tre attributi dell'infrastruttura di AI generativa vengono mappati su queste soluzioni in una progressione che richiede una potenza di elaborazione sempre maggiore. La complessità del modello varia dall'utilizzo di modelli pre-addestrati all'aumento o all'ottimizzazione dei modelli, fino all'addestramento di nuovi modelli. Il numero dei parametri varia da milioni a miliardi, fino a raggiungere i trilioni.
      • Accelera il percorso verso l'AI

        Inizia con un risultato concreto immediato

        La Retrieval-augmented generation  (RAG) è un punto di partenza ideale per molte organizzazioni, in quanto arricchisce i modelli della GenAI con i relativi dati senza necessità di riaddestramento. Scopri i casi d'uso sulla configurazione della RAG che possono essere applicati per migliorare il business e i dati.

    • 1 Dati basati sulla ricerca di Enterprise Strategy Group commissionata da Dell, "Ottimizzazione del ritorno sul capitale investito dell'AI: eseguire l'inferenza on-premise con Dell Technologies può essere del 75% più conveniente rispetto al public cloud", che confronta l'infrastruttura Dell on-premise con l'Infrastructure as-a-Service nativa per il public cloud e le API basate su token, aprile 2024. I costi previsti sono stati modellati utilizzando RAG di piccole (5.000 utenti), medie (10.000 utenti) e grandi dimensioni (50.000 utenti) e due LLM (7 miliardi e 70 miliardi di parametri) nell'arco di 3 anni. I risultati effettivi possono variare. Riepilogo economico