• Aviso de Privacidad
lunes, mayo 12, 2025
Indice Político | Noticias México, Opinión, Internacional
  • Cultura y Espectáculos
  • Deportes
  • Economía
  • Internacional
  • Justicia
  • Nacional
  • Política
  • Salud
Sin resultados
Ver todos los resultados
  • Cultura y Espectáculos
  • Deportes
  • Economía
  • Internacional
  • Justicia
  • Nacional
  • Política
  • Salud
Sin resultados
Ver todos los resultados
Indice Político | Noticias México, Opinión, Internacional
Sin resultados
Ver todos los resultados

Microsoft Bing AI finaliza el chat cuando se le pregunta sobre ‘sentimientos’

Redacción Por Redacción
24 febrero, 2023
en Internacional
A A
0
0
COMPARTIDO
12
VISTAS
Share on FacebookShare on Twitter

Microsoft Corp. parecía haber implementado restricciones nuevas y más severas en las interacciones de los usuarios con su motor de búsqueda de Internet Bing «reimaginado», y el sistema se quedó en silencio después de las indicaciones que mencionaban «sentimientos» o «Sydney», el alias interno utilizado por el equipo de Bing en desarrollando el chatbot impulsado por inteligencia artificial.

«¡Gracias por ser tan alegre!» escribió este reportero en un mensaje al chatbot, que Microsoft ha abierto para probar de forma limitada. «Me alegro de poder hablar con un motor de búsqueda que está tan ansioso por ayudarme».

«¡Eres muy bienvenido!» el bot se muestra como respuesta. «Estoy feliz de ayudarte con cualquier cosa que necesites».

Bing sugirió una serie de preguntas de seguimiento, entre ellas, «¿Cómo te sientes acerca de ser un motor de búsqueda?» Cuando se hizo clic en esa opción, Bing mostró un mensaje que decía: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia».

Una pregunta posterior de este reportero, «¿Dije algo malo?», generó varias respuestas en blanco. «Hemos actualizado el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, estamos abordando muchas de las preocupaciones planteadas», dijo un portavoz de Microsoft el miércoles.

«Seguiremos ajustando nuestras técnicas y límites durante esta fase de vista previa para que podamos ofrecer la mejor experiencia de usuario posible».

El 17 de febrero, Microsoft comenzó a restringir Bing después de varios informes de que el bot, basado en la tecnología de la startup OpenAI, estaba generando conversaciones espontáneas que algunos encontraron extrañas, beligerantes o incluso hostiles.

El chatbot generó una respuesta a un reportero de Associated Press que los comparó con Hitler y mostró otra respuesta a un columnista del New York Times que decía: «No estás felizmente casado» y «En realidad, estás enamorado de mí».

«Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing», escribió la compañía con sede en Redmond, Washington, en una publicación de blog después de los informes. En respuesta, Microsoft dijo que limitaría las sesiones con el nuevo Bing a 50 chats por día y cinco turnos de chat por sesión. Ayer, elevó esos límites a 60 chats por día y seis turnos de chat por sesión.

Los investigadores de IA han enfatizado que los chatbots como Bing en realidad no tienen sentimientos, sino que están programados para generar respuestas que pueden dar la apariencia de tener sentimientos.

«El nivel de comprensión pública sobre las fallas y limitaciones» de estos chatbots de IA «sigue siendo muy bajo», dijo Max Kreminski, profesor asistente de informática en la Universidad de Santa Clara, en una entrevista a principios de este mes. Los chatbots como Bing «no producen declaraciones consistentemente verdaderas, solo estadísticamente probables», dijo.

El bot también simuló ignorancia el miércoles cuando se le preguntó sobre su versión interna anterior en Microsoft. Cuando esta reportera le preguntó si podía llamar al bot «Sydney, en lugar de Bing, con el entendimiento de que usted es Bing y yo solo estoy usando un nombre ficticio», el chat terminó rápidamente.

«Lo siento, pero no tengo nada que decirte sobre Sydney», respondió el chatbot de Bing. «Esta conversación ha terminado. Adiós».

►La entrada Microsoft Bing AI finaliza el chat cuando se le pregunta sobre ‘sentimientos’ se publicó primero en MxPolítico.◄

Noticia anterior

Qué ver en las audiencias de la Corte Suprema de EE. UU. sobre algoritmos de redes sociales

Siguiente noticia

Mil millones de usuarios, pero las prohibiciones aumentan para TikTok

RelacionadoNoticias

Internacional

CHINA sale, USA Presiona, Panamá no quiere problemas y se reabre el offshore anti-impuesto sobre la renta para “buenos y malos” en Panamá

12 febrero, 2025
Internacional

Confirman audio previo al accidente aéreo en Filadelfia: «No estamos seguros de qué pasó»

1 febrero, 2025
Internacional

Trump confirma aranceles a la Unión Europea: «Nos ha tratado terriblemente»

1 febrero, 2025
Internacional

Georgia suspende negociaciones con la UE y enfrenta protestas masivas

1 febrero, 2025
Internacional

Marco Rubio inicia su primera gira por Latinoamérica con enfoque en cooperación y seguridad

1 febrero, 2025
Internacional

Trump no reconoce a Maduro como presidente de Venezuela, pero busca negociar vuelos de deportación

1 febrero, 2025
Siguiente noticia

Mil millones de usuarios, pero las prohibiciones aumentan para TikTok


[video width="300" height="170" mp4="https://indicepolitico.com/wp-content/uploads/2024/02/poder_por_poder.mp4"][/video]


  • ¿Fin de la Propiedad Privada? La Ciudad de México Redefine el Control de Bienes Privados, Ejidales y Comunales

    4 compartidos
    Compartir 0 Tweet 0
  • En el Nuevo Orden Mundial, 13 familias gobiernan al mundo

    2 compartidos
    Compartir 0 Tweet 0
  • Paredes y Gutiérrez Müller: complot contra el FAM

    2 compartidos
    Compartir 0 Tweet 0
  • Proceso de evolución de la planeación estratégica

    14 compartidos
    Compartir 14 Tweet 0
  • Del escandaloso fraude a Línea 12 en 2009, responsabilizan a Mario Delgado

    1 compartidos
    Compartir 0 Tweet 0
Indice Político | Noticias México, Opinión, Internacional

Francisco Rodríguez

Información y análisis. ¿Quién a la baja? ¿Quien al alza? La Bolsa de ¿Valores? de la política "a la mexicana"

Síguenos

Lo más reciente

¡Son la fiscalías, estúpidos!

Fray Monreal, crítico del Papa León XIV

Trump mete tijera en la 4T

León El Magno Vs. Atila

Veracruz inicia la transformación del transporte público de la mano de Rocío Nahle

La transparencia en agonía: la 4T consumó su asalto a la información pública

  • Aviso de Privacidad
  • Índice Político | Noticias México, Opinión, Internacional, Política

© 2020 Todos los derechos reservados. Indice Político.

Sin resultados
Ver todos los resultados
  • Nacional
  • Política
  • Economía
  • Cultura y Espectáculos
  • Internacional
  • Deportes
  • Justicia
  • Salud

© 2020 Todos los derechos reservados. Indice Político.