Inicio Tech La startup de codificación de AI generativa Magic obtiene una inversión de $320 millones de Eric Schmidt, Atlassian y otros

La startup de codificación de AI generativa Magic obtiene una inversión de $320 millones de Eric Schmidt, Atlassian y otros

Magic, una startup de AI que crea modelos para generar código y automatizar una variedad de tareas de desarrollo de software, ha recaudado una gran cantidad de dinero de inversores, incluido el ex CEO de Google, Eric Schmidt.

En una publicación en el blog el jueves, Magic dijo que cerró una ronda de financiación de $320 millones con contribuciones de Schmidt, así como de CapitalG de Alphabet, Atlassian, Elad Gil, Jane Street, Nat Friedman y Daniel Gross, Sequoia, entre otros. La financiación eleva el total recaudado por la empresa a casi medio billón de dólares ($465 millones), catapultándola a un grupo de startups de codificación de AI mejor financiadas cuyos miembros incluyen a Codeium, Cognition, Poolside, Anysphere y Augment. (Curiosamente, Schmidt también está respaldando Augment).

En julio, Reuters informó que Magic buscaba recaudar más de $200 millones con una valoración de $1.5 mil millones. Evidentemente, la ronda superó las expectativas, aunque la valoración actual de la startup no pudo ser determinada; Magic fue valorada en $500 millones en febrero.

Magic también anunció el jueves una asociación con Google Cloud para construir dos "supercomputadoras" en la plataforma de Google Cloud. El Magic-G4 estará compuesto por GPUs Nvidia H100, y el Magic G5 utilizará los chips Blackwell de próxima generación de Nvidia programados para estar disponibles el próximo año. (Las GPUs, gracias a su capacidad para ejecutar muchas computaciones en paralelo, se utilizan comúnmente para entrenar y servir modelos de AI generativa).

Magic dice que tiene como objetivo escalar el último clúster a "decenas de miles" de GPUs con el tiempo, y que juntos, los clústeres podrán alcanzar 160 exaflops, donde un exaflop equivale a un trillón de operaciones de computadora por segundo.

“Estamos emocionados de asociarnos con Google y Nvidia para construir nuestra supercomputadora de AI de próxima generación en Google Cloud,” dijo el co-fundador y CEO de Magic, Eric Steinberger, en un comunicado. “El sistema de [Blackwell] de Nvidia mejorará en gran medida la eficiencia de inferencia y entrenamiento para nuestros modelos, y Google Cloud nos ofrece el cronograma más rápido para escalar, y un rico ecosistema de servicios en la nube.”

Steinberger y Sebastian De Ro fundaron Magic en 2022. En una entrevista anterior, Steinberger le dijo a TechCrunch que se inspiró en el potencial de AI a una edad temprana; en la escuela secundaria, él y sus amigos conectaron las computadoras de la escuela para el entrenamiento de algoritmos de aprendizaje automático.

Esa experiencia sembró las semillas para el programa de Licenciatura en Ciencias de la Computación de Steinberger en Cambridge (abandonó después de un año) y, más tarde, su trabajo en Meta como investigador de AI. De Ro venía de la firma alemana de gestión de procesos empresariales FireStart, donde ascendió al cargo de CTO. Steinberger y De Ro se conocieron en la organización voluntaria ambiental que Steinberger co-creó, ClimateScience.org.

Magic desarrolla herramientas impulsadas por AI (todavía no a la venta) diseñadas para ayudar a los ingenieros de software a escribir, revisar, depurar y planificar cambios de código. Las herramientas funcionan como un programador automático, intentando comprender y aprender continuamente más sobre el contexto de varios proyectos de codificación.

Muchas plataformas hacen lo mismo, incluido el elefante en la habitación GitHub Copilot. Pero una de las innovaciones de Magic radica en las ventanas de contexto ultra largas de sus modelos. Llama a la arquitectura de los modelos "Red de Memoria a Largo Plazo", o "LTM" por abreviar.

El contexto de un modelo, o ventana de contexto, se refiere a los datos de entrada (por ejemplo, código) que el modelo considera antes de generar la salida (por ejemplo, código adicional). Una pregunta simple —"¿Quién ganó las elecciones presidenciales de EE. UU. en 2020?"— puede servir como contexto, al igual que un guión de película, un espectáculo o un clip de audio.

A medida que crecen las ventanas de contexto, también lo hace el tamaño de los documentos —o bases de código, según sea el caso— que se ajustan a ellos. El largo contexto puede evitar que los modelos "olviden" el contenido de documentos y datos recientes, y eviten desviarse del tema y extrapolar incorrectamente.

Magic afirma que su último modelo, LTM-2-mini, tiene una ventana de contexto de 100 millones de tokens. (Los tokens son bits subdivididos de datos en bruto, como las sílabas "ventilador," "tas" y "tico" en la palabra "fantástico.") Cien millones de tokens son equivalentes a alrededor de 10 millones de líneas de código, o 750 novelas. Y es de lejos la ventana de contexto más grande de cualquier modelo comercial; los próximos más grandes son los modelos insignia de Gemini de Google con 2 millones de tokens.

Magic dice que gracias a su largo contexto, LTM-2-mini pudo implementar un medidor de fuerza de contraseña para un proyecto de código abierto y crear una calculadora utilizando un marco de UI personalizado prácticamente de forma autónoma.

Actualmente, la empresa está en proceso de entrenar una versión más grande de ese modelo.

Magic tiene un equipo pequeño —alrededor de dos docenas de personas— y no tiene ingresos que mencionar. Pero está yendo tras un mercado que podría valer $27.17 mil millones para 2032, según una estimación de Polaris Research, y los inversores perciben que es un emprendimiento valioso (y posiblemente muy lucrativo).

A pesar de las preocupaciones de seguridad, derechos de autor y fiabilidad en torno a las herramientas de codificación asistida por AI, los desarrolladores han mostrado entusiasmo por ellas, con la gran mayoría de los encuestados en la última encuesta de GitHub diciendo que han adoptado herramientas de AI de alguna forma. Microsoft informó en abril que Copilot tenía más de 1.3 millones de usuarios que pagaban y más de 50,000 clientes empresariales.

Y las ambiciones de Magic son más grandes que automatizar tareas rutinarias de desarrollo de software. En el sitio web de la empresa, habla de un camino hacia la AGI —AI que puede resolver problemas de manera más confiable que los humanos solos.

En aras de tal AI, Magic, con sede en San Francisco, recientemente contrató a Ben Chess, ex líder del equipo de supercomputación de OpenAI, y planea expandir sus equipos de ciberseguridad, ingeniería, investigación e ingeniería de sistemas.