Criptomonedas

Safe Superintelligence Inc. de Ilya Sutskever obtiene $1,000 millones en financiación para desarrollar IA de próxima generación

Publicado por
Roberto Galván

Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, ha recaudado $1,000 millones en fondos para su nueva empresa de inteligencia artificial, Safe Superintelligence Inc. (SSI), valorada en aproximadamente $5,000 millones. La noticia fue anunciada en una actualización en el sitio web de la compañía el 4 de septiembre de 2024, marcando un hito significativo en la búsqueda de desarrollar tecnologías de inteligencia artificial avanzadas y seguras.

Ex jefe científico de OpenAI, Ilya Sutskever, recauda $1,000 millones para Start-Up de superinteligencia artificial

Un respaldo fuerte a la visión de SSI

SSI logró asegurar esta significativa cantidad de inversión a través de una ronda de financiación que incluyó a algunos de los más destacados inversores de capital riesgo del mundo, como NFDG, Andreessen Horowitz (a16z), Sequoia Capital, DST Global y SV Angel. La alta valoración de $5,000 millones refleja tanto la confianza del mercado en la experiencia de Sutskever como en el potencial disruptivo de SSI en el espacio de la inteligencia artificial.

La misión de SSI, según su página web, es construir un modelo de inteligencia artificial que posea un nivel de inteligencia superior al humano de manera segura. Esta meta lo posiciona como un competidor directo de otras empresas en el campo, incluyendo OpenAI y Anthropic, las cuales también buscan desarrollar inteligencia artificial avanzada con un enfoque en la seguridad y el beneficio de la humanidad.

Un foco exclusivo en la superinteligencia

A diferencia de OpenAI y Anthropic, que ofrecen una gama de productos y servicios dirigidos tanto a empresas como al público en general, SSI ha declarado que se enfocará exclusivamente en el desarrollo de una «superinteligencia segura». Este concepto de superinteligencia se refiere a un sistema de IA con capacidades cognitivas que superan ampliamente las de los humanos más inteligentes, una idea popularizada por el filósofo Nick Bostrom en su libro de 2014 «Superinteligencia: Caminos, peligros, estrategias».

Mientras que tanto OpenAI como Anthropic comenzaron con la ambición de crear una IA de nivel humano para el beneficio de la sociedad, SSI parece centrarse en una visión más singular y ambiciosa: la creación de un sistema de inteligencia artificial que supere cualquier capacidad humana conocida. Este enfoque exclusivo en la superinteligencia podría diferenciar significativamente a SSI de sus competidores y posicionarla como líder en esta área emergente.

Desafíos y oportunidades en el horizonte para Safe Superintelligence Inc.

El camino hacia la creación de una superinteligencia no está exento de desafíos. La construcción de sistemas de IA avanzados requiere no solo de enormes recursos financieros, sino también de un talento excepcional y una innovación constante. Con solo 10 empleados actualmente, SSI tendrá que demostrar que puede escalar rápidamente y utilizar sus $1,000 millones de financiación de manera efectiva para avanzar en su investigación y desarrollo.

Es notable que la creación de una superinteligencia segura también implica consideraciones éticas y de seguridad críticas. SSI tendrá que navegar estos desafíos mientras busca construir un modelo de IA que no solo sea más inteligente que los humanos, sino también que actúe de manera segura y alineada con los intereses humanos.

 

Compartir
Publicado por
Roberto Galván