Google lanzó su propio chatbot Bard y empleados de la misma empresa lo acusaron de brindar información de baja calidad. Toda la información
20.04.2023 • 14:30hs • Innovación
Innovación
Google lanzó su propio ChatGPT, pero ya tiene problemas: cuáles son las acusaciones en su contra
Empleados de Google indicaron que el chatbot Bard es un "mentiroso patológico" y que a pesar de la información de "baja calidad" que ofrece y de la falta de ética de la Inteligencia Artificial (IA) que esto implica, Google lo lanzó igualmente para competir contra sus rivales en el sector, ChatGPT y Bing.
El gigante tecnológico presentó Bard, basado en la tecnología de conversación Languaje Model for Dialogue Applications (LaMDA), a principios de febrero. Inicialmente, esta IA se puso a disposición de los probadores de confianza de Google y sus empleados, posteriormente, se amplió el acceso a los Pixel Superfans.
Sin embargo, una serie de trabajadores actuales de la empresa y ex empleados indicaron que la información que utiliza Bard es de "baja calidad" y denunciaron la falta de prioridad que da la compañía a la ética de la IA, según ha publicado Bloomberg.
Con ello, estas fuentes anónimas insistieron en que Google decidió lanzar Bard e ignorar estas deficiencias sólo para asegurarse su competencia en el sector de la IA con sus rivales Open AI con ChatGPT y Microsoft con su motor de búsqueda, Bing, y su navegador, Edge.
En este sentido, los trabajadores tildaron al chatbot de "mentiroso patológico" y "digno de vergüenza". Además, detallaron algunos casos de respuestas peligrosas de la IA, entre las que se encuentran sugerencias sobre cómo aterrizar un avión que provocaría un accidente, entre otras.
Google y su chatbot Bard
El director ejecutivo de Google, Sundar Pichai, expresó a finales del mes de marzo que la IA se trata de un área "demasiado importante para no regularlo bien".
Bard es el chatbot de Google
Asimismo, indicó que, por el momento, Bard se trata de una prueba con la que querían ver "qué tipo de consultas obtendrían", y añadió que "claramente" tienen modelos más capaces que implican mejoras en razonamiento y codificación.
"Era importante no poner un modelo más capaz antes de que podamos asegurarnos de que podemos manejarlo bien", añadió el directivo, al tiempo que abogó por la cautela: "No quiero que sea solo quién está allí primero, pero hacerlo bien es muy importante para nosotros", destacó.
Sin embargo, la voluntad de invertir más recursos en la evaluación de los daños potenciales de la tecnología de la IA no juega a favor de Google, que buscaría liderar el sector a pesar de los proyectos en los que ya se encuentran otras compañías como Microsoft.
Según apuntaron los trabajadores, el grupo que trabaja en ética de la IA de Google está "desempoderado y desmoralizado", ya que se les indicó que no se interpongan en el camino de los planes de la empresa y que "no eliminen ninguna de las herramientas de IA generativas en desarrollo".