La nueva IA de Google tiene sus propios ‘sentimientos y pensamientos’


«Si no supiera exactamente qué es, pensaría que es un niño de siete u ocho años que sabe física». Esta es la definición que el buscador de Google limón blake de la nueva inteligencia artificial desarrollada por la compañía, y que supuso la filtración de uno de los secretos mejor guardados del gigante tecnológico.

Lemoine fue suspendido de su trabajo y salario luego de dar una entrevista al diario estadounidense The Washington Post en la que mostró el gran avance de Google en el desarrollo de su nueva inteligencia artificial, llamada LaMDA. Según él, la herramienta parece ser capaz de desarrollar “sus propios sentimientos y pensamientos”.

La tesis del investigador surge tras pasar unos meses manteniendo una serie de conversaciones con LaMDA en las que incluía temas religiosos sobre si la inteligencia artificial podría ser susceptible de aprender mensajes discriminatorios y de odio. Según su versión, la herramienta aseguraba «querer anteponer el bien de la humanidad» o ser reconocida «como un empleado más de Google, en lugar de una propiedad».

La noticia causó revuelo en las redes sociales y resultó en la suspensión de Lemoine. Aunque sin duda sirve para reavivar el debate sobre ética en la aplicación de la tecnologíaalgo que parecía obsoleto pero que vuelve a ser tema de conversación a medida que las empresas tecnológicas siguen avanzando en áreas como la inteligencia artificial o el big data.

Las leyes de robots de Asimov que Google podría violar

La filtración sobre la nueva inteligencia artificial de Google ha desatado un intenso debate sobre si el gigante tecnológico puede estar infringiendo una de las tres leyes de la robótica que el escritor de ciencia ficción Isaac Asimov establecido en sus obras.

primera ley

Un robot no dañará a un humano ni, por inacción, permitirá que un humano se lastime a sí mismo.

segunda ley

Un robot debe seguir las órdenes dadas por los seres humanos, excepto aquellas que entren en conflicto con la primera ley.

tercera ley

Un robot debe proteger su propia existencia siempre que esa protección no entre en conflicto con la Primera o la Segunda Ley.

ISAAC ASIMOV

Aunque derivadas de la literatura de ciencia ficción, las Leyes de la Robótica de Asimov se han considerado fundamentales para el desarrollo ético de las herramientas tecnológicas que han triunfado en las últimas décadas. Y, sin duda, el caso LaMDA sirve para que quienes creen en la versión de Lemoine culpen a Google de no respetar esta normativa.

Sin embargo, de Google negar categóricamente que la historia de su empleado está ligada a la realidad. “Nuestro equipo, que incluye especialistas en ética y tecnólogos, revisó las preocupaciones de Blake con nuestros principios de IA y le advirtió que la evidencia no respalda sus afirmaciones”, explican.

Además, con base en la tecnología que valoran, «algunos en la comunidad de IA están considerando la posibilidad a largo plazo de la existencia de una herramienta sensible, pero no tiene sentido hacerlo antropomorfizando los patrones de conversación actuales, que no son sensible».

En realidad, la inteligencia artificial de Google pretende ser un herramienta para mejorar la comprensión del lenguaje natural por parte de las máquinas. Este es uno de los puntos fuertes de los dispositivos tecnológicos que se han generalizado en los últimos años como asistentes virtuales. Por ejemplo, Alexa de Amazon o Google Home de la empresa. Sin embargo, también es una de las características más difíciles de desarrollar para las grandes empresas tecnológicas.