Hoy, 11 de junio, aDatabricks, empresa de datos e IA, presentó varias novedades en la edición 20225 del Data + AI Summit, evento de la compañía que se celebra en San Francisco (EE.UU.). La empresaanunció una inversión de 100 millones de dólaresen educación global en datos e IA, con el objetivo de eliminar la brecha de talento en todo el sector y preparar a la próxima generación de ingenieros, analistas y científicos de datos.
Una de las iniciativas que forma parte de esta inversión es el lanzamiento de la edición gratuita de su plataforma Databricks, que ofrece a todos — estudiantes, aficionados y futuros profesionales del área — acceso gratuito a todos los recursos de laPlataforma de Inteligencia de Datos DatabricksConfira otros destacados a continuación:
Principales noticias:
- Edición gratuita de Databricks: Esta es una nueva oferta que ofrece a todos — estudiantes, aficionados y futuros profesionales del área — acceso gratuito a todos los recursos de laPlataforma de Inteligencia de Datos Databricksy un conjunto completo de entrenamientos para acelerar su conocimiento sobre tecnologías de datos e IA.Lee más aquí.
- Databricks Uno: una nueva experiencia para llevar datos e IA a todos los rincones y ofrece a los usuarios corporativos acceso sencillo y seguro a los datos y recursos de IA ofrecidos por laPlataforma de Inteligência de DatosPor primera vez, los usuarios corporativos podrán interactuar con paneles de IA/BI, hacer preguntas sobre datos en lenguaje natural a través del AI/BI Genie, impulsado por investigación profunda, encontrar rápidamente paneles relevantes y usar aplicaciones personalizadas de Databricks — todo en un entorno elegante y sin código, diseñado para sus necesidades.Lee más aquí.
- Agente Bricks:es una nueva forma automatizada de crear agentes de IA de alto rendimiento, personalizados para su negocio. Solo proporciona una descripción detallada de la tarea del agente y conecta los datos de tu empresa — el Agent Bricks se encarga del resto.La solución está optimizada para casos de uso comunes del sector, incluyendo extracción de información estructurada, asistencia confiable al conocimiento, transformación de texto personalizada y sistemas multiagentes orquestados.Lee más aquí.
- Diseñador de LakeflowEsta nueva función de ETL sin código permite que usuarios no técnicos creen pipelines de datos de producción usando una interfaz visual de arrastrar y soltar y un asistente GenAI de lenguaje natural. El Lakeflow Designer cuenta con soportedel Lakeflowla solución unificada para ingenieros de datos para crear pipelines de datos confiables más rápidamente, utilizando todos los datos críticos para los negocios, que ahora está disponible para todos.Lee más aquí.
- Lakebaseel primer sistema de gestión de bases de datos Postgres completamente administrado, desarrollado para IA, Lakebase de Databricks añade una capa de base de datos operativa aPlataforma de Inteligência de Datosde la empresa. Ahora, desarrolladores y empresas pueden crear aplicaciones de datos y agentes de IA con más rapidez y facilidad en una única plataforma multinube. Lakebase ya está disponible en Vista Pública.Lee más aquí.
- Novedades de Unity CatalogEl Unity Catalog añade soporte completo para tablas de Apache Iceberg™, incluyendo soporte nativo para las APIs REST Catalog de Apache Iceberg. Ahora, Unity Catalog es el único catálogo que permite que mecanismos externos lean y escriban, con gobernanza refinada, tablas gestionadas por Iceberg y optimizadas para el rendimiento, eliminando la dependencia y permitiendo una interoperabilidad perfecta.Databricks también está introduciendo dos nuevas mejoras que extienden Unity Catalog a los usuarios corporativos
- Donación de Pipelines Declarativos para el proyecto de código abierto Apache Spark™:Databricks está poniendo a disposición el código abierto del marco ETL declarativo principal de la empresa, Apache Spark™ Declarative Pipelines. Esta iniciativa ocurre después de que Apache Spark alcanzara dos mil millones de descargas y el reciente lanzamiento delApache Spark 4.0Estos lanzamientos se basan en el compromiso de larga data de Databricks con ecosistemas abiertos, garantizando que los usuarios tengan la flexibilidad y el control necesarios sin dependencia de proveedores. Los Spark Declarative Pipelines abordan uno de los mayores desafíos de la ingeniería de datos, facilitando la construcción y operación de pipelines de datos confiables y escalables de extremo a extremo.