Oggi, 11 giugno, aDatabricks, azienda di dati e IA, ha presentato diverse novità nell'edizione 20225 del Data + AI Summit, evento della società che si svolge a San Francisco (USA). L'aziendaha annunciato un investimento di 100 milioni di dollariin educazione globale su dati e IA, con l'obiettivo di eliminare il divario di talenti in tutto il settore e preparare la prossima generazione di ingegneri, analisti e scienziati dei dati.
Una delle iniziative che fanno parte di questo investimento è il lancio dell'edizione gratuita della tua piattaforma Databricks, che offre a tutti — studenti, dilettanti e futuri professionisti del settore — l'accesso gratuito a tutte le risorse dellaPiattaforma di Intelligenza dei Dati DatabricksConfira outros destaques abaixo:
Notizie principali:
- Databricks versione gratuita: Questa è una nuova offerta che offre a tutti — studenti, amatori e futuri professionisti del settore — l'accesso gratuito a tutte le risorse dellaPiattaforma di Intelligenza dei Dati Databrickse un insieme completo di corsi di formazione per accelerare la tua conoscenza delle tecnologie dei dati e dell'IA.Leggi di più qui.
- Databricks Uno: uma nova experiência para levar dados e IA a todos os cantos dos e oferece aos usuários corporativos acesso simples e seguro aos dados e recursos de IA oferecidos pelaPiattaforma di Intelligenza dei DatiPer la prima volta, gli utenti aziendali potranno interagire con dashboard di IA/BI, porre domande sui dati in linguaggio naturale tramite AI/BI Genie, alimentato da ricerca approfondita, trovare rapidamente dashboard pertinenti e utilizzare applicazioni Databricks personalizzate — tutto in un ambiente elegante e senza codice, progettato per le tue esigenze.Leggi di più qui.
- Agente Bricks:È un nuovo modo automatizzato per creare agenti di IA ad alte prestazioni, personalizzati per la tua attività. Basta fornire una descrizione dettagliata del compito dell'agente e collegare i dati della tua azienda — l'Agent Bricks si occupa del resto.La soluzione è ottimizzata per i casi d'uso comuni del settore, inclusa l'estrazione di informazioni strutturate, assistenza affidabile alla conoscenza, trasformazione personalizzata del testo e sistemi multi-agente orchestrati.Leggi di più qui.
- Lakeflow DesignerQuesta nuova funzionalità ETL senza codice consente agli utenti non tecnici di creare pipeline di dati di produzione utilizzando un'interfaccia visiva drag-and-drop e un assistente GenAI in linguaggio naturale. Il Lakeflow Designer supportadal Lakeflowla soluzione unificata per gli ingegneri dei dati di creare pipeline di dati affidabili più rapidamente, utilizzando tutti i dati critici per il business, ora disponibile per tutti.Leggi di più qui.
- LakebaseIl primo database Postgres completamente gestito, sviluppato per l'IA, Lakebase di Databricks aggiunge uno strato di database operativo aPiattaforma di Intelligenza dei Datidell'azienda. Ora, sviluppatori e aziende possono creare applicazioni di dati e agenti di IA più rapidamente e facilmente su una singola piattaforma multi-cloud. Lakebase è già disponibile in Visualizzazione Pubblica.Leggi di più qui.
- Novità di Unity CatalogIl Unity Catalog aggiunge il supporto completo alle tabelle Apache Iceberg™, inclusa la compatibilità nativa con le API REST Catalog di Apache Iceberg. Ora, il Unity Catalog è l'unico catalogo che consente ai motori esterni di leggere e scrivere, con governance raffinata, tabelle gestite da Iceberg e ottimizzate per le prestazioni, eliminando la dipendenza e permettendo un'interoperabilità perfetta.Anche Databricks sta introducendo due nuovi miglioramenti che estendono l'Unity Catalog agli utenti aziendali
- Donazione di pipeline dichiarative per il progetto open source Apache Spark™:Databricks sta rendendo open source il principale framework ETL dichiarativo dell'azienda, Apache Spark™ Declarative Pipelines. Questa iniziativa avviene dopo che Apache Spark ha raggiunto due miliardi di download e il recente rilascio delApache Spark 4.0Questi rilasci si basano sull'impegno di lunga data di Databricks verso ecosistemi aperti, garantendo agli utenti la flessibilità e il controllo necessari senza dipendenza dai fornitori. Spark Declarative Pipelines affronta una delle sfide più grandi dell'ingegneria dei dati, facilitando la costruzione e l'operazione di pipeline di dati affidabili e scalabili end-to-end.