今日(6月11日), 数据与人工智能公司, empresa de dados e IA, apresentou diversas novidades na edição 20225 do Data + AI Summit, evento da companhia que acontece em São Francisco (EUA). A empresa anunciou um investimento de US$ 100 milhões em educação global em dados e IA, com o objetivo de eliminar a lacuna de talentos em todo o setor e preparar a próxima geração de engenheiros, analistas e cientistas de dados.
Uma das iniciativas que faz parte deste investimento é o lançamento da edição gratuita da sua plataforma Databricks, que oferece a todos — de estudantes, amadores e futuros profissionais da área— acesso gratuito a todos os recursos da Plataforma de Inteligência de Dados Databricks. 的全部功能。更多亮点如下:
Principais notícias:
- Databricks edição gratuita: Esta é uma nova oferta que oferece a todos — de estudantes, amadores e futuros profissionais da área — acesso gratuito a todos os recursos da Plataforma de Inteligência de Dados Databricks Databricks数据智能平台全部功能,更配备完整培训课程体系,助力加速掌握数据与AI技术。. 阅读更多.
- Databricks One: uma nova experiência para levar dados e IA a todos os cantos dos e oferece a aos usuários corporativos acesso simples e seguro aos dados e recursos de IA oferecidos pela Plataforma de Inteligência de Dados. Pela primeira vez, os usuários corporativos poderão interagir com painéis de IA/BI, fazer perguntas sobre dados em linguagem natural por meio do AI/BI Genie, impulsionado por pesquisa aprofundada, encontrar painéis relevantes rapidamente e usar aplicativos Databricks personalizados — tudo em um ambiente elegante e sem código, desenvolvido para suas necessidades. 阅读更多.
- Agent Bricks: é uma nova maneira automatizada de criar agentes de IA de alto desempenho, personalizados para o seu negócio. Basta fornecer uma descrição detalhada da tarefa do agente e conectar os dados da sua empresa — o Agent Bricks cuida do resto. A solução é otimizada para casos de uso comuns do setor, incluindo extração de informações estruturadas, assistência confiável ao conhecimento, transformação de texto personalizada e sistemas multiagentes orquestrados. 阅读更多.
- Lakeflow Designer: Este novo recurso de ETL sem código permite que usuários não técnicos criem pipelines de dados de produção usando uma interface visual de arrastar e soltar e um assistente GenAI de linguagem natural. O Lakeflow Designer conta com o suporte Lakeflow, a solução unificada para engenheiros de dados criarem pipelines de dados confiáveis com mais rapidez, utilizando todos os dados críticos para os negócios, que agora está disponível para todos. 阅读更多.
- Lakebase:: o primeiro banco de dados Postgres totalmente gerenciado, desenvolvido para IA, o Lakebase da Databricks adiciona uma camada de banco de dados operacional à Plataforma de Inteligência de Dados da empresa. Agora, desenvolvedores e empresas podem criar aplicativos de dados e agentes de IA com mais rapidez e facilidade em uma única plataforma multinuvem. O Lakebase já está disponível em Visualização Pública. 阅读更多.
- 增配运营数据库层。开发者与企业现可在统一多云平台上更快速、更便捷地构建数据应用与AI智能体。Lakebase现已开放公共预览。: O Unity Catalog adiciona suporte completo para tabelas do Apache Iceberg™, incluindo suporte nativo para as APIs REST Catalog do Apache Iceberg. Agora, o Unity Catalog é o único catálogo que permite que mecanismos externos leiam e gravem, com governança refinada, tabelas gerenciadas pelo Iceberg e otimizadas para desempenho, eliminando a dependência e permitindo uma interoperabilidade perfeita. A Databricks também está introduzindo dois novos aprimoramentos que estendem o Unity Catalog aos usuários corporativos
- Doação de Pipelines Declarativos para o projeto de código aberto Apache Spark™ : A Databricks está disponibilizando o código aberto do framework ETL declarativo principal da empresa, o Apache Spark™ Declarative Pipelines. Essa iniciativa acontece após o Apache Spark atingir dois bilhões de downloads e o recente lançamento do Databricks正将其核心声明式ETL框架——Apache Spark™ Declarative Pipelines进行开源。此举恰逢Apache Spark实现二十亿次下载及. Esses lançamentos se baseiam no compromisso de longa data da Databricks com ecossistemas abertos, garantindo que os usuários tenham a flexibilidade e o controle necessários sem dependência de fornecedores. O Spark Declarative Pipelines aborda um dos maiores desafios da engenharia de dados, facilitando a construção e a operação de pipelines de dados confiáveis e escaláveis de ponta a ponta.

