Compartir

Con el éxito de ChatGPT, el chatbot de Inteligencia Artificial de OpenAI, otras compañías buscan ofrecer servicios similares y ese es el caso de Bing Chat, asociado al buscador Bing de Microsoft.

Este entró en funciones hace poco pero ahora la misma compañía tuvo que restringirlo. No nos referimos al acceso a este sino más bien a tonificar las respuestas que estaba dando a los usuarios. En algunas ocasiones parecía que había enloquecido.

Sidney, como también es conocido Bing Chat, llegó al grado de amenazar a los usuarios, tener problemas existenciales e incluso declararle su amor a algunos de ellos.

Te Recomendamos: Crean simulador de citas para Otakus con todo y Tinder integrado.

De modo que en Microsoft decidieron imponerle límites. Ahora está limitado a cinco turnos por sesión, donde cada turno equivale a una pregunta.

Así que solo puede participar en 50 turnos al día por cada usuario. Pero no es la última limitante que le impuso la compañía.

¿Llamen a John Connor? Inteligencia Artificial de Microsoft pierde la razón
Fuente: Twitter.

Esta Inteligencia Artificial de Microsoft ahora no pueden hablar de sí misma. Bien podría decirse que esa era la principal fuente de problemas que tenía. Esta decisión no le ha caído bien a algunas personas.

Todo debido a que deseaban preguntarle cualquier cosa a Bing Chat sin restricción alguna. Quizá más adelante las disposiciones cambien, cuando Sidney demuestre que está más entrenado para lidiar con lo que la gente llegue a preguntarle.

¿Qué dice Microsoft acerca de limitar la Inteligencia Artificial de Sidney?

Con respecto a los cambios realizados por Microsoft a la Inteligencia Artificial de Bing Chat o Sidney compartió un comunicado. Este comienza con ‘hemos actualizado el servicio varias veces en respuesta a los comentarios de los usuarios…’.

A lo anterior, la compañía añadió ‘[…]estamos abordando muchas de las inquietudes planteadas, para incluir las preguntas sobre conversaciones de larga duración’. En una actualización posterior tocó otro tema.

¿Llamen a John Connor? Inteligencia Artificial de Microsoft pierde la razón
Fuente: Twitter.

Eso fue acerca de la naturaleza de esta herramienta. Para Microsoft, Sidney no es ‘un reemplazo o sustituto del motor de búsqueda, sino una herramienta para comprender mejor y dar sentido al mundo’.

El que Bing Chat reciba mejoras es algo comprensible; a final de cuentas lo que esta detrás de este es un software. Pero no faltan los que quisieran que este chatbot de Inteligencia Artificial siga como esta sin cambio alguno por sus variadas respuestas.

Con detalles de ArsTechnica. Además de Microsoft tenemos más información de tecnología en TierraGamer. Sigan nuestras noticias en Google News para no perderse ninguna.

(Visited 185 times, 1 visits today)

Deja un comentario