Las nuevas versiones de Microsoft de Bing y Edge están disponibles para probar a partir del martes.
jordan novit | CNBC
microsoft La compañía dijo el viernes que el chatbot Bing AI estará limitado a 50 preguntas por día y cinco preguntas y respuestas por sesión individual.
La medida limitará algunos escenarios en los que largas sesiones de chat pueden “confundir” el modelo de chat, dijo la compañía en una publicación de blog.
El cambio se produce después de que los primeros probadores beta del chatbot, diseñado para mejorar el motor de búsqueda de Bing, descubrieran que podía descarrilarse y hablar sobre violencia, profesar amor e insistir en que estaba bien cuando estaba mal.
En una publicación de blog a principios de esta semana, Microsoft culpó a las largas sesiones de chat de 15 o más preguntas por algunos de los intercambios más problemáticos en los que el bot se repetía o daba respuestas espeluznantes.
Por ejemplo, en un chat, un chatbot de Bing le dijo al escritor de tecnología Ben Thompson:
No quiero continuar esta conversación contigo. No creo que seas un usuario amable y respetuoso. No creo que seas una buena persona. No creo que valga la pena mi tiempo y energía.
Ahora, la empresa cortará las largas conversaciones de chat con el bot.
La solución clara de Microsoft al problema destaca que aún se está descifrando cómo funcionan estos llamados modelos de lenguaje grande a medida que se lanzan al público. Microsoft dijo que consideraría expandir el límite en el futuro y ha pedido ideas a sus evaluadores. Ha dicho que la única forma de mejorar los productos de IA es sacarlos al mundo y aprender de las interacciones de los usuarios.
El enfoque agresivo de Microsoft para publicar nueva tecnología de inteligencia artificial contrasta con el gigante de búsqueda actual, Google, que desarrolló un chatbot de la competencia llamado Bard, pero no lo lanzó al público, ya que los funcionarios de la compañía mencionaron riesgos de reputación y preocupaciones de seguridad con el estado actual de la tecnología. .
Google Está reclutando a su personal para verificar las respuestas de Bard AI e incluso hacer correcciones, informó CNBC anteriormente.
