Tecnología

¿OpenAI creó una IA potencialmente riesgosa para la humanidad? Sí, es una posibilidad

La nueva teoría del terremoto que ha enfrentado la compañía creadora de ChatGPT es la creación de una tecnología de alto riesgo para todo el mundo

Sam-Altman-ceo-openai-chatgpt

Las hipótesis del fugaz despido del CEO de OpenAI, Sam Altman, continúan sin mayor información oficial; no obstante, la agencia Reuters reportó que este acto pudo deberse a una carta que alertaba a la junta de la empresa sobre un descubrimiento potente de inteligencia artificial que podría amenazar a la humanidad.

Según personal de OpenAI, que habló en condiciones de anonimato, un desarrollo no previamente informado jugó un papel crucial en la destitución de Altman, debido a preocupaciones sobre la comercialización de avances en inteligencia artificial sin comprender completamente las consecuencias.

Te recomendamos: Bard puede interpretar vídeos de YouTube para destacar información concreta del contenido

Más de 700 empleados amenazaron con renunciar en solidaridad con Altman, lo que finalmente resultó en su salida por parte de la junta directiva.

En la carta, se mencionaba un proyecto llamado Q*, considerado por algunos en OpenAI (la empresa detrás del famoso ChatGPT) como un avance en la búsqueda de la inteligencia artificial general (AGI).

Según las conversaciones de Reuters con personas de la compañía, Q* demostró capacidades prometedoras al resolver problemas matemáticos al nivel de estudiantes de primaria, generando optimismo entre los investigadores sobre su éxito futuro.

Aunque la IA generativa destaca en tareas como la traducción de lenguajes, Q* habría mostrado potencial en el desafiante campo de las matemáticas, indicando capacidades de razonamiento mejoradas similares a la inteligencia humana.

A pesar de la importancia de Q*, las preocupaciones de seguridad expresadas en la carta no fueron detalladas. Los posibles riesgos asociados con máquinas altamente inteligentes, incluida la posibilidad de decidir la destrucción de la humanidad, han sido objeto de discusión entre los científicos de la computación.

Además, se destacó el trabajo de un equipo de ‘científicos de IA’, confirmado por múltiples fuentes, que exploraba la optimización de modelos de IA existentes para mejorar el razonamiento y realizar trabajos científicos.

El liderazgo de Altman en impulsar el rápido crecimiento de ChatGPT y asegurar recursos de Microsoft para acercarse a la AGI también influyó en su despido, a pesar de sus recientes anuncios sobre avances significativos en inteligencia artificial.

¿Qué dicen otros especialistas de IA?

Si bien las causas del despido y recontratación de Altman no han sido del todo claras, expertos como Carlos Santana, un famoso divulgador de información sobre inteligencia artificial, pidió paciencia y esperar a tener más datos antes de hacer teorías como la del desarrollo potencialmente peligroso para la humanidad de OpenAI.

“Ayer la teoría de moda era que si en la junta de OpenAI había una espía china... Hoy que si han descubierto un nuevo tipo de algoritmo (Q*) que alertó a la junta... Creo que en vez de armar una noticia al día con cada teoría loca, toca darle tiempo y esperar a las evidencias”, señaló en su cuenta de X (Twitter).

DV Player placeholder

Tags


Lo Último

Te recomendamos