Databricks obtient un financement de série K, évalué à plus de 100 milliards de dollars

2025-08-20
Databricks obtient un financement de série K, évalué à plus de 100 milliards de dollars

Databricks, l'entreprise de données et d'IA, a annoncé avoir obtenu un financement de série K, valorisant l'entreprise à plus de 100 milliards de dollars. Cet investissement alimentera la stratégie IA de Databricks, en étendant son produit Agent Bricks, en investissant dans sa nouvelle base de données Lakebase et en stimulant la croissance mondiale. Agent Bricks crée des agents IA de haute qualité, tandis que Lakebase est une nouvelle base de données opérationnelle construite sur Postgres open source, toutes deux optimisées pour l'IA. Le financement soutiendra également les futures acquisitions et recherches en IA. Avec plus de 15 000 clients, la plateforme de Databricks démocratise l'accès aux données et à l'IA, permettant aux organisations d'exploiter leurs données pour l'analyse et les applications IA, augmentant les revenus, réduisant les coûts et atténuant les risques.

Lire plus
IA

Databricks acquiert Neon : Postgres serverless pour l'ère de l'IA

2025-05-14
Databricks acquiert Neon : Postgres serverless pour l'ère de l'IA

Databricks a annoncé l'acquisition de Neon, une société de Postgres serverless axée sur les développeurs. L'équipe de Neon, reconnue pour son expertise en Postgres, a construit une plateforme de base de données réputée pour sa vitesse, son évolutivité et son coût-efficacité, particulièrement attrayante pour les agents d'IA. Cette acquisition renforce la position de Databricks sur le marché des bases de données natives de l'IA, offrant aux développeurs et aux systèmes d'IA une solution de base de données puissante.

Lire plus
Technologie

TAO de Databricks : surpasser l'ajustement fin avec des données non étiquetées

2025-03-26
TAO de Databricks : surpasser l'ajustement fin avec des données non étiquetées

Databricks présente TAO (Test-time Adaptive Optimization), une nouvelle méthode d'ajustement fin des modèles ne nécessitant que des données d'utilisation non étiquetées. Contrairement à l'ajustement fin traditionnel, TAO utilise le calcul en temps de test et l'apprentissage par renforcement pour améliorer les performances du modèle en fonction d'exemples d'entrée précédents. Étonnamment, TAO surpasse l'ajustement fin traditionnel, rapprochant les modèles open source comme Llama d'une qualité comparable à celle de modèles propriétaires coûteux comme GPT-4. Cette innovation est disponible en préversion pour les clients Databricks et alimentera les futurs produits.

Lire plus