Como psicoanalista, me preocupa el modo en cómo avanzan las investigaciones en inteligencia artificial. Desde hace un tiempo, vengo planteando que la informática ha confirmado y probado las afirmaciones de los psicoanalistas, demostrando que las máquinas se negaron a responder a los usuarios.
Incluso, evidenciaron alucinaciones, consecuencia de la nueva forma de programación en lenguaje, imitando a los humanos.
Todo esto ocurría a nivel básico de los chatbots, pero hoy estamos a las puertas del paso siguiente.
Se habría filtrado la información que Open AI ya tiene en sus manos el proyecto Strawberry: una nueva tecnología de razonamiento de IA, que puede:
- navegar por internet en forma autónoma en busca de ubicar los puntos débiles
- crear una idea de lo que se debe corregir o mejorar
- planificar lo que es necesario para solucionar problemas
- realizarlo sin la necesidad de indicaciones humanas continuas
Como psicoanalista, lo que nos hace especialmente atentos al lenguaje, la palabra "problema" es crucial, ya que quien decida qué se considera un "problema" también será quien determine qué debe ser descartado o modificado y qué no.
Y si hablamos en términos de educación, ciencia y cultura, esto es determinante de lo que pase a la posteridad.
Cuando Alan Turing -considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna- publicó su famoso artículo en la revista Mind, donde proponía crear una inteligencia artificial imitando a los humanos.
Una de las cuestiones más importantes que nos legó fue su reflexión de que no era conveniente programarlas así porque tendría las mismas falencias que tenemos los humanos.
¿Cuáles serían esas falencias? Los modelos de lenguaje actuales hablan y razonan. Pero con el proyecto Strawberry, la idea es que si un razonamiento genera o da una respuesta correcta, entonces ese razonamiento se considerará válido para entrenar nuevas capacidades y alcanzar metas más "profundas".
Ante esto se abre un nuevo interrogante, ¿Esto está bien?
Doctores en Lógica, psicoanalistas, epistemólogos podemos demostrar muy rápidamente que no siempre es cierto que "si la respuesta es correcta significa que el razonamiento es correcto".
A veces una respuesta correcta puede surgir de razonamientos incorrectos como, por ejemplo, al ver una figura pública muy reconocida, se deduce que debe ser muy bueno en su campo o en lo que hace.
Puede ser cierto que "x" es famoso, pero eso no garantiza que nuestra conclusión sea correcta. En el caso de una IA esta podría querer subsanar un problema en base a una conclusión equivocada o falaz.
Las consecuencias de los errores de concepción en la programación de una IA que opera en el mundo real son cruciales, especialmente cuando se busca avanzar en la autonomía de las máquinas.
Podemos ver como nuestro futuro se construye como un castillo de naipes. A veces la mano viene bien pero depende de quién reparta las cartas…
*Por Violaine Fua Púppulo, psicóloga