La compañía tecnológica a cargo de Sam Altman lanzó una herramienta que fue muy esperada por los usuarios del popular chatbot ChatGPT
24.02.2025 • 11:11hs • Inteligencia artificial
Inteligencia artificial
Llega una nueva función de ChatGPT que muchos usuarios estaban esperando
Luego de conocerse la hoja de ruta de OpenAI con la nueva versión de ChatGPT, la empresa ahora está realizando cambios en la moderación de los pedidos que los usuarios le hacen a su chatbot.
Estos cambios están orientados a una mejor experiencia, y ponen foco en retirar las advertencias naranjas que notifican de un contenido que puede violar sus políticas.
La novedad de ChatGPT
Es por eso que la big tech comandada por Sam Altman decidió retirar "muchas advertencias innecesarias en la interfaz de usuario", que hasta ahora notificaban de pedidos sobre contenidos que podían violar las normas de esta herramienta.
Por otro lado, esta novedad en su chatbot fue anunciada por el responsable de Producto de la aplicación de ChatGPT, Nick Turley, en un breve comunicado oficial que fue compartido en la red social X.
Además, la razón es que dentro de la empresa consideran ahora que los usuarios deberían: "poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagas daño a si mismos ni a los demás".
Una de las advertencias eliminadas es la de color naranja, un recuadro negro con las letras de este color que aparece en ocasiones en las indicaciones de los usuarios.
Esto fue también confirmado en la red social de Elon Musk, en la cuenta de Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI.
No obstante, esta no es la única advertencia que muestra ChatGPt, ya que también pueden aparecer avisos en forma de recuadros de color rojo, e incluso frases de rechazo tales como: "Lo siento, no lo haré".
Un freno en temas sensibles
En este sentido, la big tech explicó recientemente el comportamiento de sus modelos ante las solicitudes de los usuarios, especialmente las relacionadas con temas controvertidos.
Además, según explicó la empresa, ellos parten del hecho de que no pueden mitigar todos los casos, pero si afirmaron que se centran en los más graves.
En estos casos, OpenAI aseguró que el chatbot no debe generar contenido considerado prohibido, que involucra a menores, restringido, riesgos informativos y datos personales confidenciales, que solo se puede generar: "en circunstancias específicas".
Como por ejemplo, si este fuese el caso de un: "contexto educativos, médico o histórico".
Por último, este chatbot tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc., lo que incluye insultos y cualquier lenguaje que deshumanice.
En conclusión, OpenAI también entiende que si el usuario o el desarrollador le pide al BOT que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.