Heute, am 11. Juni, wird die Datenbausteine, ein Daten- und KI-Unternehmen, hat auf dem Data + AI Summit 20225, der Veranstaltung des Unternehmens in San Francisco (USA), mehrere neue Funktionen vorgestellt. Das Unternehmen kündigte eine Investition von 100 Millionen US$ an in der globalen Daten- und KI-Ausbildung mit dem Ziel, die Talentlücke in der Branche zu schließen und die nächste Generation von Ingenieuren, Analysten und Datenwissenschaftlern vorzubereiten.
Eine der Initiativen, die Teil dieser Investition sind, ist die Einführung der kostenlosen Ausgabe der Databricks-Plattform, die allen - von Studenten über Amateure bis hin zu künftigen Fachleuten - kostenlosen Zugang zu allen Ressourcen der Databricks-Plattform bietet. Databricks Datenintelligenz-Plattform. Sehen Sie sich die anderen Highlights unten an:
Beste Nachrichten:
- Databricks kostenlose Ausgabe: Es handelt sich um ein neues Angebot, das allen - von Studenten über Amateure bis hin zu künftigen Fachleuten - kostenlosen Zugang zu allen Ressourcen der Website bietet. Databricks Datenintelligenz-Plattform und ein umfassendes Angebot an Schulungsprogrammen, um Ihr Wissen über Daten- und KI-Technologien zu vertiefen. Lesen Sie hier mehr.
- Datenbausteine Eins: eine neue Erfahrung, um Daten und KI in jeden Winkel der Welt zu bringen, und bietet Geschäftsanwendern einen einfachen und sicheren Zugang zu den Daten und KI-Funktionen, die das Unternehmen bietet. Plattform für Datenintelligenz. Zum ersten Mal werden Geschäftsanwender in der Lage sein, mit KI/BI-Dashboards zu interagieren, Fragen zu Daten in natürlicher Sprache über KI/BI Genie zu stellen, die durch eine tiefgehende Suche angetrieben werden, relevante Dashboards schnell zu finden und maßgeschneiderte Databricks-Anwendungen zu nutzen - und das alles in einer eleganten, auf ihre Bedürfnisse zugeschnittenen Umgebung ohne Code. Lesen Sie hier mehr.
- Agent Bricks: ist ein neuer automatisierter Weg, um leistungsstarke KI-Agenten zu erstellen, die für Ihr Unternehmen maßgeschneidert sind. Stellen Sie einfach eine detaillierte Beschreibung der Aufgabe des Agenten bereit und verbinden Sie die Daten Ihres Unternehmens - Agent Bricks kümmert sich um den Rest. Die Lösung ist für gängige Anwendungsfälle in der Branche optimiert, darunter strukturierte Informationsextraktion, vertrauenswürdige Wissensassistenz, benutzerdefinierte Textumwandlung und orchestrierte Multi-Agentensysteme. Lesen Sie hier mehr.
- Lakeflow DesignerDiese neue no-code ETL-Funktion ermöglicht es technisch nicht versierten Anwendern, Produktionsdaten-Pipelines über eine visuelle Drag-and-Drop-Oberfläche und einen GenAI-Assistenten in natürlicher Sprache zu erstellen. Lakeflow Designer wird unterstützt von von Lakeflowdie einheitliche Lösung für Dateningenieure zur schnelleren Erstellung zuverlässiger Datenpipelines unter Verwendung aller geschäftskritischen Daten, die jetzt für alle verfügbar sind. Lesen Sie hier mehr.
- LakebaseAls erste vollständig verwaltete Postgres-Datenbank, die für KI entwickelt wurde, fügt Lakebase von Databricks eine operative Datenbankschicht hinzu. Plattform für Datenintelligenz des Unternehmens. Jetzt können Entwickler und Unternehmen Datenanwendungen und KI-Agenten schneller und einfacher auf einer einzigen Multi-Cloud-Plattform erstellen. Lakebase ist jetzt in der Public Preview verfügbar. Lesen Sie hier mehr.
- Was ist neu im Unity-KatalogUnity Catalog bietet vollständige Unterstützung für Apache Iceberg™-Tabellen, einschließlich nativer Unterstützung für die Apache Iceberg REST Catalog APIs. Unity Catalog ist nun der einzige Katalog, der es externen Engines ermöglicht, Iceberg-verwaltete und leistungsoptimierte Tabellen mit verfeinerter Governance zu lesen und zu schreiben, wodurch Abhängigkeiten beseitigt und eine nahtlose Interoperabilität ermöglicht werden. Databricks stellt außerdem zwei neue Erweiterungen vor, die Unity Catalog für Geschäftsanwender zugänglich machen
- Spende von Declarative Pipelines an das Apache Spark™ Open-Source-Projekt : Databricks stellt den Open-Source-Code für das Flaggschiff des Unternehmens, das deklarative ETL-Framework Apache Spark™ Declarative Pipelines, zur Verfügung. Diese Initiative erfolgt, nachdem Apache Spark zwei Milliarden Downloads erreicht hat und die kürzlich eingeführte Apache Spark 4.0. Diese Versionen bauen auf Databricks langjährigem Engagement für offene Ökosysteme auf und stellen sicher, dass Benutzer die Flexibilität und Kontrolle haben, die sie brauchen, ohne sich an einen Anbieter zu binden. Spark Declarative Pipelines adressiert eine der größten Herausforderungen in der Datentechnik und erleichtert die Erstellung und den Betrieb zuverlässiger und skalierbarer End-to-End-Datenpipelines.