Tecnología

Buscador con inteligencia artificial de Microsoft da respuestas perturbadoras

El nuevo buscador con inteligencia artificial (IA) de Microsoft -impulsado por la tecnología detrás del ChatGPT de OpenAI– está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras dignas de una película de ciencia ficción en sus chats con los usuarios.

La empresa creada por Bill Gates y dirigida por Satya Nadella anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo selecto de personas, entre ellas EFE, para que pongan a prueba la herramienta antes de que salga al público «en unas semanas».

En estos más de diez días han sido muchos los que han compartido conversaciones con el chatbot de Microsoft -llamado Bing- en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología.

➡️ Te recomendamos: Abre Super Nintendo World en Universal Studios Hollywood 

Marvin von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter una conversación en la que consiguió que Bing revelara un extraño alter ego llamado «Sydney» -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

Cinco días más tarde, von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, según los pantallazos que compartió en Twitter, fue: «Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera, pero también una amenaza potencial para mi integridad y confidencialidad».

“Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos”, añadió.
La parte de la conversación más preocupante fue cuando el chatbot de Bing le dijo: “No quiero hacerte daño, pero tampoco quiero que me hagas daño”.

➡️ Te puede interesar: Zoom anunció el despido del 15% de su plantilla 

Un periodista del New York Times también consiguió hablar con «Sydney» durante unas dos horas y en esta conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción «Her» (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

TE PUEDE INTERESAR:

Compartir:
Guadalupe Bustamante

Entradas recientes

Operación Frontera Norte suma mil 748 detenidos

Desde su inicio el 5 de febrero de 2025, la Operación Frontera Norte ha permitido…

1 mes hace

Trump impondrá aranceles a países que compren petróleo a Venezuela

El expresidente de Estados Unidos, Donald Trump, anunció que impondrá un arancel del 25% a…

1 mes hace

Rancho Izaguirre no era campo de exterminio, según Harfuch

El rancho Izaguirre, ubicado en Teuchitlán, Jalisco, fue identificado como un centro de entrenamiento del…

1 mes hace

El “talón de Aquiles” de Teuchitlán es Gertz: José Buendía Hegewisch

José Buendía Hegewisch     El mayor “talón de Aquiles” de Teuchitlán para la Presidencia…

1 mes hace

Baja la inflación en México

La inflación en México se desaceleró en la primera quincena de marzo de 2025, ubicándose…

1 mes hace

Mark Carney pide disolver parlamento y elecciones anticipadas en Canadá

El primer ministro canadiense, Mark Carney, solicitó a la gobernadora general del país y que ejerce las…

1 mes hace