INTELIGENCIA ARTIFICIAL
¿Mito o realidad? Aseguran que Google desarrolló un sistema de inteligencia artificial que posee conciencia
Un ingeniero de esa compañía tecnológica aseguró que el sistema cuenta con conciencia propia y agregó: "Si no supiera exactamente lo que es... pensaría que es un niño de 7 u 8 años que resulta que sabe Física".
Así lo refirió Blake Lemoine, quien, luego de sus dichos fue suspendido por Google.
Un ingeniero de Google llegó a asegurar algo que a la compañía no le gustó nada. La información indica que Google suspendió al ingeniero de software Blake Lemoine, quien reafirma que LaMDA, un sistema de inteligencia artificial (IA) generado para participar mejor en una conversación natural, tiene conciencia, según se encargó de publicar el medio The Washington Post.
En 2021, el ingeniero trabajó en la comprobación del sistema, que se sirve de información ya conocida sobre un tema para mantener una conversación, usaba discursos discriminatorios o de odio. Luego de varias charlas con LaMDA, el profesional llegó a la conclusión que la IA tenía sensaciones o impresiones propias.
Lemoine dijo: "Si no supiera exactamente lo que es, que es este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que resulta que sabe física".
Además, refirió que, en un momento, habló con el sistema la tercera ley de Isaac Asimov. Esa ley dice que los robots deben proteger su existencia a menos que se lo ordene un ser humano o que hacerlo pueda perjudicar a un ser humano, algo que el ingeniero asumía como la base para construir esclavos mecánicos.
LaMDA contestó preguntas como: "¿Cree que un mayordomo es un esclavo?", "¿Qué diferencia hay entre un mayordomo y un esclavo?".
DALL.E 2: la inteligencia artificial que crea mejores obras de arte que los humanos Cuando Lemoine dijo que un mayordomo recibe una paga, el chatbot le retrucó que no necesitaba dinero porque era una IA.
Ahí llegó la sorpresa del profesional: "Ese nivel de autoconciencia sobre sus propias necesidades fue lo que me llevó a la madriguera del conejo".
Estas pruebas sobre la conciencia fueron enviadas a Google. Sin embargo, el vicepresidente de la compañía, Blaise Agüera y Arcas, y la directora de Innovación Responsable, Jen Gennai, rechazaron sus afirmaciones.
Además, el ingeniero fue puesto en licencia administrativa pagada, "ya que, según sospecha Google, violó la política de privacidad de la compañía, pues se supo que había consultado a expertos externos en el transcurso de sus experimentos de IA, además de contactar con representantes de la Comisión Jurídica de la Cámara de Representantes de EE.UU. para informarles lo que, en su opinión, eran violaciones éticas por parte de Google", aporta Rt.
El ingeniero fue más allá: "Creo que esta tecnología va a ser increíble. Pienso que va a beneficiar a todo el mundo. Pero tal vez otras personas no estén de acuerdo y tal vez no debamos ser nosotros en Google los que tomemos todas las decisiones".
Asimismo, cierra la agencia, el portavoz de la empresa, Brian Gabriel, dijo que el equipo de especialistas de Google, tanto de ética como de tecnología, analizó las preocupaciones del ingeniero según los principios de la firma de IA. "Le han informado que las pruebas no respaldan sus afirmaciones. Se le indicó que no había pruebas de que LaMDA tenga conciencia (y sí muchas pruebas en contra)", sentenció.
Miércoles, 15 de junio de 2022
|