Tech

La startup de etiquetado de datos Scale AI recauda $1 mil millones a medida que la valoración se duplica a $13.8 mil millones

Scale AI, que proporciona servicios de etiquetado de datos a empresas que desean entrenar modelos de aprendizaje automático, ha recaudado una ronda de la Serie F de $1 mil millones de una serie de inversores institucionales y corporativos de renombre que incluyen a Amazon y Meta.

La recaudación de fondos es una mezcla de financiamiento primario y secundario, y es la última de una serie de grandes inversiones de capital de riesgo en inteligencia artificial. Amazon cerró recientemente una inversión de $4 mil millones en el rival de OpenAI, Anthropic, y empresas como Mistral AI y Perplexity también están en proceso de recaudar rondas de mil millones de dólares a valoraciones elevadas.

Antes de esta ronda, Scale AI había recaudado alrededor de $600 millones en sus ocho años de historia, incluida una Serie E de $325 millones en 2021 que la valoró en alrededor de $7 mil millones, el doble de la valoración de su Serie D en 2020. Tres años después, y a pesar de los vientos en contra que le llevaron a despedir al 20% de su personal el año pasado, Scale AI ahora está valorada en $13.8 mil millones, un signo de los tiempos, ya que los inversores se apresuran a adelantarse en la fiebre del oro de la inteligencia artificial.

La Serie F fue liderada por Accel, que también lideró la Serie A de la empresa y participó en rondas de financiamiento posteriores.

Además de Amazon y Meta, Scale AI ha atraído a una variedad de nuevos inversores: los brazos de capital de riesgo de Cisco, Intel, AMD y ServiceNow participaron, al igual que DFJ Growth, WCM y el inversor Elad Gil. Muchos de sus inversores existentes también volvieron: Nvidia, Coatue, Y Combinator, Index Ventures, Founders Fund, Tiger Global Management, Thrive Capital, Spark Capital, Greenoaks, Wellington Management y el ex CEO de GitHub, Nat Friedman.

Apoyándose en la creciente importancia de los datos

Los datos son la sangre vital de la inteligencia artificial, por eso las empresas especializadas en gestión y procesamiento de datos están prosperando en este momento. Justo la semana pasada, Weka dijo que recaudó $140 millones a una valoración post-monetaria de $1.6 mil millones para ayudar a las empresas a construir canalizaciones de datos para sus aplicaciones de inteligencia artificial.

Fundada en 2016, Scale AI combina el aprendizaje automático con la supervisión 'humana en el ciclo' para administrar y etiquetar grandes volúmenes de datos, algo vital para entrenar sistemas de inteligencia artificial en industrias como los vehículos autónomos.

Créditos de la imagen: Scale AI / Página de gestión de Autotag

Pero la mayoría de los datos son no estructurados, y los sistemas de inteligencia artificial encuentran difícil utilizar dichos datos de inmediato. Necesitan ser etiquetados, lo que es un esfuerzo intensivo en recursos, especialmente con conjuntos de datos grandes. Scale AI proporciona a las empresas datos que han sido correctamente anotados y preparados para entrenar modelos. También se especializa para diferentes industrias con diferentes necesidades: una empresa de coches autónomos probablemente necesitará datos etiquetados de cámaras y lidar, mientras que los casos de uso de procesamiento de lenguaje natural (NLP) necesitarán texto anotado.

Los clientes de la empresa incluyen a Microsoft, Toyota, GM, Meta, el Departamento de Defensa de EE. UU. y, desde agosto pasado, OpenAI, creador de ChatGPT, que está utilizando Scale AI para permitir a las empresas ajustar sus modelos generadores de texto GPT-3.5.

Scale AI dice que utilizará el nuevo efectivo para ayudar a acelerar la 'abundancia de datos fronterizos que allanarán nuestro camino hacia la inteligencia general artificial'.

“La abundancia de datos no es la opción predeterminada, es una elección”, dijo el CEO y cofundador de Scale AI, Alexandr Wang, en un comunicado de prensa. “Requiere reunir a las mejores mentes en ingeniería, operaciones e inteligencia artificial. Nuestra visión es la de la abundancia de datos, donde tenemos los medios de producción para seguir escalando LLMs fronterizas muchas órdenes de magnitud más. No deberíamos estar limitados por los datos para llegar a GPT-10”.

Related Articles

Back to top button