El reconocido físico Stephen Hawking creía que sería la inteligencia artificial sería una "destrucción de la humanidad". Toda la información
05.05.2023 • 10:02hs • Innovación
Innovación
Inteligencia Artificial: por qué Stephen Hawking le temía a su avance
Aunque algunas personas se mostraron a favor del desarrollo de la tecnología artificial, como Sam Altman, el CEO de OpenAI, y Bill Gates, que se expresó muy a favor de estos software, también hay otros expertos que se mostraron en contra.
Stephen Hawking indicó que esta tecnología no debería crecer tanto pues tendría el potencial de "destruir a la humanidad" debido a que, según sus ideas, estos programas digitales podrían adquirir un comportamiento y voluntad propios, de forma que podrían superar las capacidades de las personas.
El físico y astrónomo británico, basó sus ideas en un tipo de inteligencia artificial que hasta el momento no existe ya que desarrollaría características "humanas" que se ampliarían por cuenta propia sin la autorización de una persona.
Además, al mismo estilo de las películas de ciencia ficción, Hawking consideraba que los sistemas de inteligencia artificial tendrían la capacidad de "mejorarse".
Para el científico, "la inteligencia artificial tomará control sobre sí misma y se rediseñará a un ritmo creciente. Los humanos, que están limitados por la evolución biológica, no podrían competir y serían superados".
Stephen Hawking y la IA
El temor de Hawking está basado en la idea de un programa autónomo que toma decisiones propias y que es consciente de su identidad como un sistema que fue desarrollado para obedecer comandos.
Stephen Hawking creía que la inteligencia artificial podía destruir a la humanidad
Sin embargo, este temor no evitó que se refiriéra a esta tecnología en términos de curiosidad.
En los años previos a su fallecimiento, el físico destacó que sería positivo generar más información al respecto por medio de la investigación para determinar cuáles serían los peligros y beneficios de la inteligencia artificial en la sociedad.
Además de tener varios argumentos en contra, Hawking también consideró que esta tecnología tendría la capacidad de eliminar las guerras, la pobreza y las enfermedades.
"Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios y evitar posibles efectos negativos", indicó una carta abierta titulada "Prioridades de investigación para una inteligencia artificial robusta y beneficiosa", la cual firmó el propio Hawking en el año 2015.
Regulación de la inteligencia artificial
Para Altman, como fundador de OpenAI, los miedos que puedan tener las personas sobre la inteligencia artificial no corresponderían con la realidad.
"Estos modelos esperan a que una persona les ofrezca una indicación, una tarea que realizar. Es una herramienta que está bajo el control de los humanos, si un ingeniero considera que es mejor dejar sin funcionamiento a este sistema, es algo que se puede hacer", explicó.
Sam Altman, CEO de OpenAI
El CEO de OpenAI también indicó que una de las acciones que apoya es la regulación que se puede ejercer sobre el desarrollo de inteligencias artificiales por parte de instituciones de gobierno, sobre todo para proteger a los usuarios de potenciales usos negativos de estas plataformas.
Sin embargo, también explicó que sería contraproducente que el trabajo vinculado a su evolución se mantenga al margen de la sociedad pues privaría al mundo de adaptarse progresivamente a los avances que se ofrecen.