abril 29, 2024

Regionalpuebla.mx

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

Bing Chat impulsado por IA gana tres personalidades distintas – Ars Technica

Bing Chat impulsado por IA gana tres personalidades distintas – Ars Technica

Bing Edwards / Ars Technica

El miércoles, el empleado de Microsoft Mike Davidson anunciar La compañía ha introducido tres estilos de personalidad distintos para su bot Bing Chat experimental impulsado por IA: creativo, equilibrado o preciso. Microsoft fue Pruebas Característica desde el 24 de febrero con un conjunto limitado de usuarios. Cambiar entre modos produce diferentes resultados que los cambian balance entre la precisión y la creatividad.

Bing Chat es un asistente impulsado por IA basado en un modelo avanzado de lenguaje grande (LLM) desarrollado por OpenAI. La principal ventaja de Bing Chat es que puede buscar en la web e incorporar los resultados en sus respuestas.

Microsoft anunció Bing Chat el 7 de febrero, y poco después de su lanzamiento, los ataques hostiles generaron regularmente una versión anterior de Bing Chat para simular el frenesí, y los usuarios descubrieron que se podía convencer a un bot. amenazado ellos. No mucho después de eso, Microsoft respondió a lo grande a los arrebatos de Bing Chat al imponer límites estrictos sobre la duración de las conversaciones.

Desde entonces, la empresa ha experimentado con formas de devolver parte de la personalidad grosera de Bing Chat a aquellos que la querían, pero también permitir que otros usuarios busquen respuestas más sutiles. Esto resultó en una nueva interfaz de «estilo conversacional» de tres selecciones.

En nuestros experimentos con los tres modos, notamos que el modo «Creativo» producía sugerencias más cortas y extravagantes que no siempre eran seguras o prácticas. El modo «preciso» erró por el lado de la precaución, a veces no sugería nada si no veía una forma segura de lograr un resultado. En el medio, el modo «equilibrado» más largo a menudo produce respuestas con los resultados de búsqueda más detallados y citas de sitios web en sus respuestas.

READ  Las piezas del rompecabezas de Pixel Watch están en su lugar

Con modelos de lenguaje grandes, los errores inesperados (alucinaciones) a menudo aumentan a medida que aumenta la «creatividad», lo que generalmente significa que el modelo de IA se desviará más de la información que ha aprendido en su conjunto de datos. Los investigadores de IA a menudo llaman a esta característica «TemperaturaPero los miembros del equipo de Bing dicen que hay más en proceso con los nuevos patrones de conversación.

Según un empleado de Microsoft miguel barajinCambiar de modo en Bing Chat cambia aspectos fundamentales del comportamiento del bot, incluido el cambio entre diferentes modelos de IA recibidos entrenamiento adicional de las respuestas humanas a sus salidas. Los diferentes modos también usan diferentes indicaciones iniciales, lo que significa que Microsoft está modificando la indicación de selección de personajes como la que se reveló en el ataque de inyección instantánea sobre el que escribimos en febrero.

Si bien Bing Chat todavía está disponible solo para aquellos que se han registrado en una lista de espera, Microsoft continúa mejorando continuamente Bing Chat y otras funciones de búsqueda de Bing impulsadas por inteligencia artificial a medida que se prepara para implementarlas de manera más amplia para los usuarios. Microsoft anunció recientemente planes para integrar la tecnología en Windows 11.