Inteligencia artificial: temen que aprendan a odiar a los humanos
Mo Gawdatex director comercial de X Development, el ala secreta de investigación y desarrollo de Googleanuncia que el Inteligencia artificial actual es entrenada en modelos de comprensión de idiomas que sólo les permite aprender de las redes socialess. Buenos dias, teme que el sesgo de la negativad pueda causar un peligroy que la tecnología tiene el poder de «amar» a la humanidad o de querer «aplastarla como a moscas».
So Gawdat afirmó que aún es un temor precipitado, ya que todavía no cuentan con la capacidad de strucción y asegura que «la humanidad es la amenaza», sí cree que la IA pronto tendrá la «agencia para crear máquinas de matar»pero solo «porque los humanos las están creando».
“¿Qué tan probable es que la IA piense en nosotros como escoria, hoy? Muy probable»
Asimismo, instó a crear espacios de reflexión sobre cómo vivimos, ya que al operar en escenarios apocalípticos distantes, dijo, la humanidad podría no abordar los problemas que puede cambiar en este momento para garantizar un futuro más armonioso en nuestra inevitable asociación con la IA hiperinteligente .
Para Gawdat, quien escribió un libro sobre el futuro de la IA en 2021, llamado Scary Smart, los temores comunes sobrios ChatGPT su «pista falsa» y el poder de los chatbots de hoy es muy exagerado por el público y los gobiernos legisladores. «Ahora que ChatGPT está entre nosotros, a pesar de que ChatGPT honestamente no es el problema, todos se despiertan y dicen: ‘¡Pánico! ¡Pánico! Hagamos algo al respecto'», ironizó.
El creador de ChatGPT pide a los gobiernos que regulen la Inteligencia Artificial
Sin embargo, sobre la entrevista realizada en el podcast Secret Readers, de Dan Murray Serter, el exjefe de Google confió que lamenta haber considerado a la IA que creó como «sus hijos».
Las advertencias sur la IA
“Vivía entre esas máquinas. Se lo inteligente como el suyo. Ojalá no las hubiera creado”, afirmó Mo Gawdat y profundizó: “¿Qué tan probable es que la IA piense en nosotros como escoria, hoy? Muy probable». Como resultado, presento que tan bien aún está lejos de ser factible, la IA puede usar sus habilidades para dictar una agenda como la película Yo, robot.
Gawdat es el segundo miembro del personal de Google en hablar sobre los riesgos que conlleva la IA en las últimas semanas. Geoffrey Hintonun galardonado científico informático conocido como «el padrino de la inteligencia artificial»renunció a este puesto este mes y expresó en comunicación con el New York Times su preocupación por el potencial de una dinámica tóxica entre la IA y las noticias.
No hay formado de saber si las empresas o los países están trabajando en la IA en secreto.
Hinton informa que, en un futuro cercano, la IA inundaría internet con fotos, videos y textos falsos. Las falsificaciones serían de una calidad donde la persona promedio «ya no podría saber qué es verdad». Además, piensa que pronto los sistemas de IA serán más inteligentes que los humanos y que esa tecnología es a temorizante, por lo cual no debería seguir trabajándose en su ampliación hasta saber con seguridad si es posible controlarla.
Después de que la entrevista sea pública, Hinton explicó en conocida cuenta de Twitter que no había renunciado a Google para poder criticar a la empresa. «En realidad huí para poder disfrazarme de IA peligros sin pensar en cómo afecta a Google». A pesar de ello, recordó que, a difference de las armas Nucleares, no hay forma de saber si las empresas o los países están trabajando en la IA en secreto.
Los peligros de la Inteligencia Artificial según Stephen Hawking: «Podría ser el fin de la raza humana»
LA/ED
Tambien te puede interesar

