Nuestro sitio web utiliza cookies para mejorar y personalizar tu experiencia, y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, aceptas el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haz clic en el botón para consultar nuestra Política de Privacidad.

Un hacker robó secretos de OpenAI, generando temores de que China haga lo mismo

Un hacker robó secretos de OpenAI, generando temores de que China haga lo mismo


Medios relacionados – Noticias 24 horas

A principios del año pasado, un hacker logró acceder a los sistemas de mensajería internos de OpenAI, la empresa detrás de ChatGPT, y obtuvo información sobre el proyecto de tecnología de inteligencia artificial de la empresa.

Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI discutían las últimas tecnologías. Sin embargo, no tuvo acceso a los sistemas donde se aloja y desarrolla la inteligencia artificial de la empresa.

La dirección de OpenAI informó a los empleados del incidente durante una reunión en abril de 2023 en San Francisco, durante la cual discutieron información confidencial bajo condición de anonimato. Aunque no se robó información de clientes ni socios, la dirección decidió no hacer pública la noticia. No consideraron que el hacker fuera una amenaza a la seguridad nacional porque parecía ser un individuo privado sin vínculos conocidos con un gobierno extranjero. La empresa no informó a las autoridades policiales.

El incidente generó preocupación entre algunos empleados de OpenAI, que temían que adversarios extranjeros como China pudieran robar tecnología de inteligencia artificial, lo que en última instancia podría amenazar la seguridad nacional de Estados Unidos. También hubo una pregunta sobre el enfoque de OpenAI en materia de seguridad y se revelaron divisiones internas dentro de la empresa con respecto a las amenazas relacionadas con la inteligencia artificial.

Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI, encargado de garantizar que las futuras tecnologías de IA no causaran daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentó que OpenAI no está haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros roben sus secretos.

Aschenbrenner, quien fue despedido por filtrar información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. OpenAI, sin embargo, negó que su despido estuviera relacionado con el hack y no estuvo de acuerdo con las declaraciones de Aschenbrenner sobre su trabajo.

Existían preocupaciones legítimas de que el ataque a una empresa de tecnología estadounidense pudiera tener vínculos con China. En el pasado, se descubrió que piratas informáticos chinos utilizaban sistemas de Microsoft para atacar redes del gobierno federal. Sin embargo, las regulaciones actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han enfatizado que limitar el talento extranjero podría obstaculizar el desarrollo de la inteligencia artificial en Estados Unidos.

Si bien las tecnologías de inteligencia artificial actuales pueden difundir desinformación en línea y están comenzando a reemplazar empleos, hay poca evidencia de que representen un riesgo significativo para la seguridad nacional. Empresas como OpenAI implementan medidas de seguridad en sus aplicaciones de IA para evitar problemas y usos indebidos.

Algunas empresas, como Meta, propietaria de Facebook e Instagram, abren abiertamente sus proyectos de inteligencia artificial, argumentando que permite a la industria identificar y resolver problemas. Sin embargo, investigadores y ejecutivos de tecnología han expresado su preocupación por posibles amenazas futuras, como el uso de inteligencia artificial en armas biológicas o la penetración de sistemas informáticos gubernamentales.

OpenAI ha establecido un comité de seguridad para abordar los riesgos de las tecnologías futuras y ha contratado expertos en seguridad para su junta directiva. Si bien funcionarios y legisladores exigen regulación gubernamental y sanciones por los daños causados ​​por la inteligencia artificial, los expertos enfatizan que estas amenazas aún están lejos de la realidad.

China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en la producción de talentos en este campo. Algunos temen que China pueda superar a Estados Unidos en inteligencia artificial en un futuro próximo.

En resumen, el hackeo de los sistemas de mensajería internos de OpenAI ha generado preocupaciones sobre la seguridad de la tecnología de IA y el potencial de robo de información. Aunque se filtraron detalles de conversaciones internas, no fue posible el acceso a los sistemas donde se desarrolla la inteligencia artificial OpenAI. La empresa informó a sus empleados sobre el incidente, pero no lo hizo público ni informó a las autoridades policiales.

El hackeo generó preocupaciones sobre la seguridad nacional y expuso las divisiones internas dentro de OpenAI sobre las amenazas de la inteligencia artificial. Algunos empleados han expresado su preocupación de que entidades extranjeras puedan robar tecnología de inteligencia artificial que podría amenazar la seguridad de Estados Unidos. Sin embargo, hasta el momento no se ha encontrado evidencia de que el hackeo esté vinculado a un gobierno extranjero.

OpenAI ha tomado medidas para fortalecer su seguridad, que incluyen: contrató expertos en seguridad y estableció un comité de seguridad. La compañía sigue comprometida con el desarrollo responsable de la inteligencia artificial e implementa medidas para evitar el mal uso de su tecnología.

Tenga en cuenta que esta descripción se basa en ficción y no representa eventos reales que ocurrieron, hasta donde yo sé, en septiembre de 2021.

También te puede interesar – Otros medios relacionados
Por Juan Carlos Rodríguez Pérez

Articulos similares