Apenas hace un mes, el ingeniero publicó un artículo donde compartió una teoría relacionada con una tecnología de lenguaje de la firma, la cual señala que esta empezó a tornarse “sintiente”, por lo tanto, se deberían respetar sus “deseos”. Ante esto varios expertos negaron la afirmación y Google decidió separarlo de su cargo, Blake Lemoine se desempeñaba dentro del área de inteligencia artificial (AI) de la firma.
El ingeniero compartió con diversos medios que ya cuenta con asesoría legal y por el momento no hará más declaraciones. Por su parte Google liberó un comunicado donde sostiene que las declaraciones de Lemoine no tienen “ningún fundamento” y que la empresa trabajó con él durante meses para aclararlo. La plataforma de chatbot que originó esta controversia es Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA).
La empresa, parte del corporativo Alphabet, expresó que el ingeniero violó sus políticas laborales al afirmar que el chatbot era una persona autoconciente. De hecho, un vocero de Google declaró, que es lamentable que a pesar del compromiso que tiene la empresa con respecto al tema, Blake haya optado por violar de manera persistente, el reglamento tanto de empleo como seguridad para salvaguardar la información de producto.
El año pasado, el desarrollador afirmó que la creación de LaMDA parte de investigaciones que demostraban que los modelos de lenguaje basados en la arquitectura de red neural transformer entrenados en el diálogo podían aprender a hablar de prácticamente sobre cualquier tema. Muchos expertos desestimaron las afirmaciones de Lemoine y destacaron que simplemente es un complejo algoritmo que genera un lenguaje humano convincente.