Hoje, 11 de junho, a Databricks, empresa de dados e IA, apresentou diversas novidades na edição 20225 do Data + AI Summit, evento da companhia que acontece em São Francisco (EUA). A empresa anunciou um investimento de US$ 100 milhões em educação global em dados e IA, com o objetivo de eliminar a lacuna de talentos em todo o setor e preparar a próxima geração de engenheiros, analistas e cientistas de dados.
Uma das iniciativas que faz parte deste investimento é o lançamento da edição gratuita da sua plataforma Databricks, que oferece a todos — de estudantes, amadores e futuros profissionais da área— acesso gratuito a todos os recursos da Plataforma de Inteligência de Dados Databricks. Confira outros destaques abaixo:
Principais notícias:
- Databricks edição gratuita: Esta é uma nova oferta que oferece a todos — de estudantes, amadores e futuros profissionais da área — acesso gratuito a todos os recursos da Plataforma de Inteligência de Dados Databricks e um conjunto abrangente de treinamentos para acelerar seu conhecimento sobre tecnologias de dados e IA. Leia mais aqui.
- Databricks One: uma nova experiência para levar dados e IA a todos os cantos dos e oferece a aos usuários corporativos acesso simples e seguro aos dados e recursos de IA oferecidos pela Plataforma de Inteligência de Dados. Pela primeira vez, os usuários corporativos poderão interagir com painéis de IA/BI, fazer perguntas sobre dados em linguagem natural por meio do AI/BI Genie, impulsionado por pesquisa aprofundada, encontrar painéis relevantes rapidamente e usar aplicativos Databricks personalizados — tudo em um ambiente elegante e sem código, desenvolvido para suas necessidades. Leia mais aqui.
- Agent Bricks: é uma nova maneira automatizada de criar agentes de IA de alto desempenho, personalizados para o seu negócio. Basta fornecer uma descrição detalhada da tarefa do agente e conectar os dados da sua empresa — o Agent Bricks cuida do resto. A solução é otimizada para casos de uso comuns do setor, incluindo extração de informações estruturadas, assistência confiável ao conhecimento, transformação de texto personalizada e sistemas multiagentes orquestrados. Leia mais aqui.
- Lakeflow Designer: Este novo recurso de ETL sem código permite que usuários não técnicos criem pipelines de dados de produção usando uma interface visual de arrastar e soltar e um assistente GenAI de linguagem natural. O Lakeflow Designer conta com o suporte do Lakeflow, a solução unificada para engenheiros de dados criarem pipelines de dados confiáveis com mais rapidez, utilizando todos os dados críticos para os negócios, que agora está disponível para todos. Leia mais aqui.
- Lakebase: o primeiro banco de dados Postgres totalmente gerenciado, desenvolvido para IA, o Lakebase da Databricks adiciona uma camada de banco de dados operacional à Plataforma de Inteligência de Dados da empresa. Agora, desenvolvedores e empresas podem criar aplicativos de dados e agentes de IA com mais rapidez e facilidade em uma única plataforma multinuvem. O Lakebase já está disponível em Visualização Pública. Leia mais aqui.
- Novidades do Unity Catalog: O Unity Catalog adiciona suporte completo para tabelas do Apache Iceberg™, incluindo suporte nativo para as APIs REST Catalog do Apache Iceberg. Agora, o Unity Catalog é o único catálogo que permite que mecanismos externos leiam e gravem, com governança refinada, tabelas gerenciadas pelo Iceberg e otimizadas para desempenho, eliminando a dependência e permitindo uma interoperabilidade perfeita. A Databricks também está introduzindo dois novos aprimoramentos que estendem o Unity Catalog aos usuários corporativos
- Doação de Pipelines Declarativos para o projeto de código aberto Apache Spark™ : A Databricks está disponibilizando o código aberto do framework ETL declarativo principal da empresa, o Apache Spark™ Declarative Pipelines. Essa iniciativa acontece após o Apache Spark atingir dois bilhões de downloads e o recente lançamento do Apache Spark 4.0. Esses lançamentos se baseiam no compromisso de longa data da Databricks com ecossistemas abertos, garantindo que os usuários tenham a flexibilidade e o controle necessários sem dependência de fornecedores. O Spark Declarative Pipelines aborda um dos maiores desafios da engenharia de dados, facilitando a construção e a operação de pipelines de dados confiáveis e escaláveis de ponta a ponta.