• Soluzioni di intelligenza artificiale Dell

    Soluzioni Dell AI

    Aumenta i tuoi vantaggi con il più ampio portafoglio di AI generativa.1

    Innovazione Intel® integrata
    • Porta l'AI nei dati

      Dell Technologies accelera il passaggio dalla possibilità alla certezza attraverso tecnologie innovative, suite completa di servizi professionali e la vasta rete di partner.

    • Portafoglio predisposto per l'AI

      Offri le migliori prestazioni di AI2 e semplifica l'approvvigionamento, il deployment e la gestione dell'infrastruttura di AI con una tecnologia all'avanguardia progettata per l'era dell'AI generativa.

    • Server PowerEdge per l'AI

      Con l'AI generativa, trasforma rapidamente le idee in azioni utilizzando i nostri server PowerEdge ottimizzati per l'AI con tecnologia di alimentazione e raffreddamento efficiente.

      • I server PowerEdge XE offrono accelerazione di livello superiore e diverse opzioni per la GPU.
      • PowerEdge R760xa vanta un'elevata densità di schede PCIe.
    • Storage per l'AI

      Proteggi i dati e gestisci enormi quantità di dati non strutturati con una soluzione di storage flessibile e scalabile.

      • Progettato appositamente per gestire grandi volumi di dati con prestazioni eccezionali.
      • Ottimizza le basi di AI con la piattaforma di dati scalabile.
      • Ottieni il ritorno sul capitale investito da impiegare per l'AI e l'AI generativa.
    • Gestione dei dati per l'AI

      Libera i dati dall'edge al core fino al multicloud per sviluppare i carichi di lavoro di analisi, AI e AI generativa.

      • Semplifica l'individuazione, la consultazione e l'elaborazione dei dati tra gli ambienti.
      • Abilita l'accesso rapido ai dati per accelerare l'ottimizzazione dei modelli e i risultati di business.
      • Sfrutta un'esperienza pronta all'uso che semplifica l'acquisto, il deployment e la gestione del ciclo di vita.
    • PC e workstation per l'AI

      Sfrutta la potenza dell'AI con la nuova architettura per PC.

      • Prova la creazione di contenuti accelerata dall'AI, l'ottimizzazione delle foto, l'editing video e altro ancora.  
      • Semplifica lo sviluppo dell'AI, dalla prototipazione, all'ottimizzazione e al deployment dei carichi di lavoro di AI generativa con le workstation Precision.
    • APEX per l'AI generativa

      Sfrutta le funzionalità della progettazione multicloud e l'AI senza problemi con la praticità degli abbonamenti personalizzati e delle soluzioni as-a-Service con tecnologia Dell APEX.

      • Abbonati ai prodotti di cui hai bisogno con maggiore semplicità, agilità e controllo.
      • Scegli il tuo prodotto di AI generativa preferito, configurane facilmente le funzionalità e specifica i servizi di cui hai bisogno.
    • Professional Services per l'AI

      Accelera la potenza dell'AI per i dati.

      • Crea e convalida la roadmap di AI generativa offrendo al contempo innovazione con una piattaforma di AI generativa consolidata.
      • Accelera il time-to-value per le esigenze aziendali prioritarie.
      • Funzionalità di AI generativa avanzate in tutta l'organizzazione.

      • Un'ecosistema aperto di partner

        Utilizza set di strumenti e origini dati più ampi nei flussi di lavoro di AI.

      • Integrare l'AI generativa nell'organizzazione

        Scopri in che modo l'azienda ha la possibilità di sfruttare il potenziale dell'AI generativa tramite approfondimenti, soluzioni e strategie Dell per usufruire delle capacità di trasformazione.

      • Soluzioni Dell AI generativa

        Le soluzioni AI Dell per l'inferenza dei modelli LLM on-premise sono fino al 75% più convenienti rispetto al public cloud. 3

      • Utilizzo dell'inferenza con un modello pre-addestrato per risultati più rapidi

        L'inferenza prevede l'utilizzo di modelli di AI pre-addestrati per sviluppare previsioni, prendere decisioni o generare dei risultati in base ai dati inseriti. Questo processo è essenziale per l'implementazione pratica dell'AI generativa, dando luogo a risposte e alla generazione di contenuti in tempo reale.

        AI generativa: inferenza (con NVIDIA)

        Affronta le sfide date dall'inferenza, come latenza, reattività ed esigenze di elaborazione, contribuendo a trasformare i dati aziendali in risultati intelligenti dal valore elevato. 

      • Personalizzazione di un modello pre-addestrato

        L'ottimizzazione è il processo in cui le aziende hanno la possibilità di aggiungere dati di dominio specifici del proprio settore verticale in un modello linguistico di grandi dimensioni preesistente, così da ottenere approfondimenti specializzati relativi alle informazioni pertinenti per l'azienda.

        AI generativa: personalizzazione e ottimizzazione dei modelli (con NVIDIA)

        Riduce i costi relativi all'ottimizzazione con indicazioni comprovate sul nuovo addestramento di modelli di AI generativa esistenti per i casi d'uso specifici ed esempi di tecniche di personalizzazione standard come il transfer learning e il prompt tuning.

      • Addestrare un modello da zero

        Addestrare un modello da zero è la scelta migliore se il settore è altamente specializzato e ha un vocabolario considerevolmente unico, come quello legale, medico o scientifico, oppure se l'azienda richiede un livello di privacy elevato in cui è vietato mescolare dati di origine pubblica e privata.

        AI generativa: addestramento dei modelli (con NVIDIA)

        Fornisce indicazioni su come creare un modello linguistico basato sui propri dati, in grado di comprendere e generare contenuti pertinenti per il settore specifico.

      • Retrieval-Augmented Generation (RAG) per migliorare il risultato del modello

        I modelli linguistici di grandi dimensioni (LLM) sono in grado di fornire risposte simili a quelle umane, ma hanno bisogno di informazioni accurate su cui basare tali risposte. RAG è una tecnica per acquisire informazioni e fornire risposte più precise e affidabili per gli LLM con fatti recuperati da fonti esterne.

        AI generativa: Retrieval-Augmented Generation (con NVIDIA)

        Semplifica il deployment dell'architettura full-stack utilizzando microservizi NVIDIA e un framework scalabile per l'integrazione e il recupero delle informazioni per i modelli linguistici.


      • Presentazione dei clienti

      • PUBBLICA AMMINISTRAZIONE

        Città di Amarillo

        La città di Amarillo collabora con Dell Professional Services per rendere più accessibili i servizi della comunità con un assistente digitale multilingue.

      • TRASPORTI

        Duos Technologies

        Duos Technologies migliora la sicurezza ferroviaria eseguendo algoritmi di AI nell'edge sui server PowerEdge.

      • MEDIA E INTRATTENIMENTO

        CyberAgent

        CyberAgent sviluppa l'AI generativa giapponese per trasformare il servizio pubblicitario digitale. 

      • MEDIA E INTRATTENIMENTO

        Taboola

        Utilizzare l'AI per fornire contenuti pertinenti e accuratamente mirati.

      • RICERCA SCIENTIFICA

        KeyGene

        KeyGene crea un futuro sicuro e sostenibile per l'agricoltura.

      • ISTRUZIONE SUPERIORE

        Università di Cambridge

        Dell Technologies e Intel alimentano il supercomputer basato sull'AI più veloce del Regno Unito.


    • Validated Design per l'intelligenza artificiale

      Le soluzioni Validated Design di Dell Technologies sono configurazioni testate e comprovate progettate fin dal principio per adattarsi in modo dinamico alle esigenze di casi d'uso specifici. 

    • Soluzione Obiettivo Vantaggi Casi d'uso    

      AI per ambienti virtualizzati

      Solution brief

      Validated Design

      Semplifica l'esecuzione dell'AI insieme ai carichi di lavoro tradizionali con una soluzione congiunta di NVIDIA e VMware, utilizzando GPU a più istanze.
      • Integra senza problemi i carichi di lavoro di AI accelerati con le applicazioni di livello enterprise esistenti.
      • Evita di creare sistemi separati specifici per l'AI.
      Carichi di lavoro software-defined. Carichi di lavoro di virtualizzazione e AI ad alta densità, carichi di lavoro HPC e a prestazioni elevate, ambienti di private cloud.

      AI MLOps con cnvrg.io

      Solution brief

      Validated Design

      Standardizza le pipeline di ML per una transizione senza problemi dalla ricerca alla produzione con la progettazione convalidata Dell per l'AI, sviluppata in collaborazione con cnvrg.io.
      • Implementa rapidamente stack hardware e software ottimizzati.
      • Semplifica le pipeline di ML per uno sviluppo più rapido e transizioni di produzione più fluide.
      • Implementa in tutta sicurezza una soluzione di operazioni di apprendimento automatico (MLOps) testata a livello tecnico.
      Carichi di lavoro di AI incentrati sull'apprendimento automatico, sulle operazioni di AI e sull'analisi dei dati.

      Apprendimento automatico

      Solution brief

      Validated Design

      Automatizza l'addestramento dei modelli di AI con Dell Validated Design for AI: apprendimento automatico (AutoML) per semplificare la selezione degli algoritmi, la generazione di funzionalità, l'ottimizzazione degli iperparametri, la modellazione iterativa e la valutazione dei modelli.
      • Semplifica l'addestramento dei modelli di AI per i data scientist.
      • Accelera la transizione dell'AI alla produzione con MLOps semplificato.
      • Implementa in tutta sicurezza una soluzione MLOps tecnicamente testata.
      Carichi di lavoro di AI incentrati sull'apprendimento automatico, sulle operazioni di AI e sull'analisi dei dati.

      Conversational AI

      Solution brief

      Validated Design

      Semplifica e accelera l'adozione degli assistenti virtuali avanzati con Dell Validated Design for AI: IA conversazionale ottimizzata per favorire l'interazione perfetta tra computer e esseri umani attraverso la conversazione. 
      • Crea facilmente interfacce utente conversazionali e assistenti virtuali.
      • Utilizza assistenti virtuali pre-addestrati per casi d'uso di AI conversazionale.
      • Consenti agli utenti aziendali e ai non sviluppatori con funzionalità senza utilizzo di codice di creare assistenti AI.
      Casi d'uso conversazionali e di supporto: (risorse umane, spazi di lavoro dei dipendenti, servizi bancari, settore sanitario, assistenza nella ricerca, ecc.)

      AI generativa: inferenza (con NVIDIA)

      Solution brief

      Validated Design

      Semplifica l'inferenza del modello linguistico di grandi dimensioni (LLM) con un'architettura scalabile e modulare per supportare vari casi d'uso.
      • Implementa rapidamente modelli di AI generativa pre-addestrati.
      • Genera risultati e valore con un'architettura congiunta Dell e NVIDIA.
      Creazione di contenuti, assistenti di supporto, ricerca in linguaggio naturale, automazione dei processi e altro ancora.

      AI generativa: personalizzazione e ottimizzazione dei modelli (con NVIDIA)

      Solution brief

      Validated Design

      Scopri come riaddestrare i modelli di AI generativa esistenti (pre-addestrati) per casi d'uso specifici.
      • Migliora le prestazioni dei modelli di AI generativa personalizzandoli e ottimizzandoli in base ai dati e ai casi d'uso.
      • Implementare un'architettura congiunta di Dell e NVIDIA.
      Creazione di contenuti, assistenti di supporto, ricerca in linguaggio naturale, automazione dei processi e altro ancora.

      Red Hat OpenShift AI su APEX Cloud Platform for Red Hat OpenShift

      Solution brief

      Validated Design

      Ottimizza ed estendi i deployment OpenShift on-premise su Dell APEX Cloud Platform utilizzando questo DVD sviluppato con Red Hat.
      • Implementa gli assistenti digitali sfruttando il modello linguistico di grandi dimensioni (LLM) e il framework Retrieval Augmented Generation (RAG).
      • Accelera il time-to-value con integrazioni approfondite e l'automazione intelligente.
      • Offri prestazioni, sicurezza e scalabilità lineare con un'architettura bare metal.
      Carichi di lavoro di AI incentrati sull'AI generativa,  apprendimento automatico, operazioni di AI e analisi dei dati. Private cloud e on-premise, carichi di lavoro di AI e di elaborazione ad alta densità, HPC, data center.

    • Domande frequenti

    • Qual è la differenza tra intelligenza artificiale e AI generativa?

      L'intelligenza artificiale utilizza analisi avanzata e tecniche incentrate sulla logica per l'interpretazione degli eventi e l'automazione delle decisioni, mentre l'AI generativa ricava più valore per le aziende sfruttando data set di grandi dimensioni per generare nuovi contenuti come testi, immagini, audio, video, dati sintetici e codice software. 

    • Perché i dati sono importanti per l'intelligenza artificiale e l'AI generativa?

      I dati alimentano l'intelligenza artificiale e l'AI generativa e la quantità e la qualità influiscono direttamente sui risultati generati. 

    • In che modo le organizzazioni traggono vantaggio dall'utilizzo dell'AI generativa?

      L'AI generativa ha il potenziale di cambiare il modo in cui operano le organizzazioni, trasformandole in modi che possiamo solo iniziare a immaginare. I leader aziendali e IT iniziano appena a usufruire dei numerosi vantaggi, tra cui l'incremento della produttività, la riduzione dei costi, l'innovazione e la soddisfazione dei clienti.

  • Domande?
    Siamo a disposizione per fornirti assistenza.
    Pensiamo a tutto, dall'offerta di una consulenza qualificata alla soluzione di problemi complessi.
    • 1Dati basati su analisi Dell, agosto 2023.  Dell Technologies offre soluzioni per carichi di lavoro di AI in 12 categorie di prodotti e servizi

      2Dati basati su un'analisi condotta da Dell sui risultati delle prestazioni disponibili pubblicamente per la classificazione delle immagini di AI su server GPU a otto vie equiparabili estratti dal sito www.mlperf.org il 27 giugno 2023. Dell PowerEdge XE9680 con GPU NVIDIA® H100 Tensor Core ha ottenuto un punteggio di 13,466 nell'addestramento MLPerf™ versone 3.0 per il benchmark di classificazione delle immagini di AI nella categoria Closed Division disponibile on-premise, un risultato più veloce rispetto a quelli ottenuti dal server GIGABYTE G593-SD0, ovvero 13,500, dai server Supermicro AS-8125GS-TNHR e SYS-821GE-TNHR, rispettivamente 13,603 e 13,501, e da NVIDIA dgxh100_ngc23.04, ovvero 13,601, e ai risultati della categoria Preview per server D74H-7U_preview Quanta_Cloud_Technology, ovvero 13,721, server Azure ND_H100_v5, ovvero 13,819. Risultato verificato da MLCommons Association. Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri Paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consultare il sito www.mlcommons.org .

      3Dati basati sul riepilogo economico di Enterprise Strategy Group commissionato da Dell, che confronta l'infrastruttura Dell on-premise con l'Infrastructure as-a-Service public cloud nativa, aprile 2024. I modelli analizzati mostrano un LLM con parametri 70B che sfrutta RAG per un'organizzazione di 50.000 utenti e fino al 75% più conveniente in 3 anni. I risultati effettivi possono variare.  Riepilogo economico

      4Dati basati su analisi Dell, novembre 2023. Dell Optimizer non è disponibile per OptiPlex serie 3000, Latitude Chromebook Enterprise e dispositivi con sistema operativo Linux. La disponibilità e l'efficienza delle funzioni variano a seconda del modello. Per ulteriori informazioni visita il sito: https://www.delltechnologies.com/asset/en-us/solutions/business-solutions/technical-support/dell-optimizer-features-availability-matrix.pdf.external

      *Dell PowerEdge XE9680 supera le prestazioni di Supermicro SuperServer SYS-821GE-TNHR in quattro dei sei benchmark fondamentali per le applicazioni di AI.

           Dati basati su un'analisi condotta da Dell sui risultati delle prestazioni disponibili pubblicamente per la classificazione delle immagini di AI su server GPU a otto vie equiparabili estratti dal sito www.mlperf.org il 27 giugno 2023. Dell PowerEdge XE9680 con GPU NVIDIA® H100 Tensor Core ha ottenuto un punteggio di 13,466 nell'addestramento MLPerf™ versone 3.0 per il benchmark di classificazione delle immagini di AI nella categoria Closed Division disponibile on-premise, un risultato più veloce rispetto a quelli ottenuti dal server GIGABYTE G593-SD0, ovvero 13,500, dai server Supermicro AS-8125GS-TNHR e SYS-821GE-TNHR, rispettivamente 13,603 e 13,501, e da NVIDIA dgxh100_ngc23.04, ovvero 13,601, e ai risultati della categoria Preview per server D74H-7U_preview Quanta_Cloud_Technology, ovvero 13,721, server Azure ND_H100_v5, ovvero 13,819.  Risultato verificato da MLCommons Association. Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri Paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consultare il sito www.mlcommons.org .

      **Dell PowerEdge XE9680 ha superato le prestazioni di Supermicro SuperServer SYS-821GE-TNHR e AS-8125GS-TNHR nell'addestramento di modelli di AI per l'elaborazione del linguaggio naturale. 

          Dati basati su un'analisi condotta da Dell sui risultati delle prestazioni disponibili pubblicamente estratti dal sito www.mlperf.org il 27 giugno 2023 per Dell PowerEdge XE9680 con GPU NVIDIA® H100 Tensor Core che ha ottenuto un punteggio pari a 13,466 nell'addestramento MLPerf™ versione 3.0 per la classificazione di immagini, 16,846 per il riconoscimento vocale, 19,985 per il rilevamento di oggetti, con peso elevato, e 5,363 per i benchmark relativi all'elaborazione del linguaggio neurale nella categoria Closed Division disponibile on-premise, risultati più veloci rispetto a quelli ottenuti con il server Supermicro SYS-821GE-TNHR: 13,501 per la classificazione di immagini, 17,919 per il riconoscimento vocale, 21,493 per il rilevamento di oggetti, con peso elevato, e 5,383 per l'elaborazione del linguaggio neurale. Risultato verificato da MLCommons Association. Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri Paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consultare il sito www.mlcommons.org .

      Dell PowerEdge XE9680 ha superato le prestazioni di Supermicro SuperServer AS-8125GS-TNHR in sei categorie nel confronto dell'esecuzione dell'addestramento del modello di apprendimento automatico a singolo nodo.

            Dati basati su un'analisi condotta da Dell sui risultati delle prestazioni disponibili pubblicamente estratti dal sito www.mlperf.org il 27 giugno 2023 per Dell PowerEdge XE9680 con GPU NVIDIA® H100 Tensor Core che ha ottenuto un punteggio pari a 13,466 nell'addestramento MLPerf™ versione 3.0 per la classificazione di immagini, 16,846 per il riconoscimento vocale, e 5,363 per i benchmark relativi all'elaborazione del linguaggio neurale nella categoria Closed Division disponibile on-premise, risultati più veloci rispetto a quelli ottenuti con i server Supermicro AS-8125GS-TNHR e SYS-821GE-TNHR, rispettivamente: 13,603 e 13,501 per la classificazione di immagini, 19,235 e 17,919 per il riconoscimento vocale e 5,389 e 5,383 per l'elaborazione del linguaggio neurale. Risultato verificato da MLCommons Association. Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri Paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consultare il sito www.mlcommons.org .

      ****Un portafoglio più ampio di soluzioni, servizi e modelli di consumo AI rispetto a Supermicro. Dati basati su un documento di ricerca di Principled Technologies commissionato da Dell Technologies, "Finding the path to AI success with the Dell AI portfolio. A comparison of the Dell AI portfolio vs. similar offerings from Supermicro” (in inglese), febbraio 2024. I risultati effettivi possono variare. Paper completo