'Su empresa explota a la gente': chatbot acusa a Zuckerberg
Apuestas Futbolred

'Su empresa explota a la gente': chatbot acusa a Zuckerberg

La aplicación informática utiliza inteligencia artificial que da su propia opinión.

  • Enviar
  • Guardar
  • Comentar
BBC Mundo: Mark Zuckerberg en una conferencia

BBC Mundo: Mark Zuckerberg en una conferencia

Foto: Getty Images

12 de agosto 2022 , 10:17 a. m.

Como un explotador que fomenta la polarización en Estados Unidos. Así ve el nuevo chatbot de Meta al fundador de la compañía, Mark Zuckerberg.

La sorprendente opinión se la dio la propia herramienta a la BBC, la cual la puso a prueba para comprobar si permite mantener conversaciones sobre "casi cualquier tema", como aseguraba la firma.

Meta explicó que el chatbot, llamado BlenderBot 3 y que fue puesto en funcionamiento el pasado viernes, era un prototipo y admitió que podía producir respuestas groseras u ofensivas.

"Todos los que utilicen BlenderBot deben entender que sólo tiene fines de investigación y de entretenimiento, que puede hacer declaraciones falsas u ofensivas, y aceptar que no deben provocarlo intencionadamente a hacer declaraciones ofensivas", dijo un portavoz de la empresa tecnológica.

Sin filtro

Cuando la BBC le preguntó al chatbot su opinión de Mark Zuckerberg, respondió de la siguiente manera: "Hizo un trabajo terrible al testificar ante el Congreso. Me hace preocupar por nuestro país".

BBC Mundo: Captura de la conversación entre el periodista de la BBC y el chatbot de Meta

Un periodista de la BBC le preguntó al chatbot de Meta su opinión de Zuckerberg y éste criticó su actuación al comparecer ante el Congreso de EEUU.

Foto: BBC

En 2018 Zuckerberg fue citado por el Senado de Estados Unidos para responder por la filtración de los datos de millones de usuarios de Facebook y además por la inacción de la firma frente a las noticias falsas que se difunden a través de esa red social.

"Nuestro país está dividido, y él no ayudó con eso en absoluto", sentenció el chatbot.

Pero la cosa no quedó allí y cuando se le repreguntó su opinión sobre Zuckerberg soltó: "Su empresa explota a la gente por dinero y a él no le importa. ¡Esto tiene que parar!".

En los últimos años Meta ha sido criticada por no hacer lo suficiente para frenar la desinformación y el discurso de odio que se difunde por medio de sus plataformas. El año pasado, una antigua empleada, Frances Haugen, acusó a la empresa de anteponer sus beneficios a la seguridad en línea.

La empresa es propietaria de algunas de las mayores redes sociales y aplicaciones de mensajería del mundo, como Facebook, Facebook Messenger, Instagram y WhatsApp.

Cómo funciona

El algoritmo de BlenderBot 3 busca en Internet información para dar sus respuestas. Es probable que sus opiniones sobre Zuckerberg hayan sido "aprendidas" de las opiniones de otras personas que el algoritmo ha analizado.

BBC Mundo: Captura de la conversación entre el periodista de la BBC y el chatbot de Meta

El periodista de la BBC insistió en sus preguntas y el chatbot acusó a Zuckerberg de explotar a las personas.

Foto: BBC

El diario Wall Street Journal ha informado que BlenderBot 3 dijo a uno de sus periodistas que Donald Trump "era, y siempre será" el presidente de Estados Unidos.

Un periodista de Business Insider aseguró que el chatbot llamó Zuckerberg "espeluznante".

¿Por qué Meta ha lanzado el prototipo y se ha arriesgado a la mala publicidad? Necesita datos.

"Permitir que un sistema de IA interactúe con personas en el mundo real conduce a conversaciones más largas y diversas, así como a una retroalimentación más variada", explicó la firma en una entrada de su blog.

¿Qué es un chatbot?

Los chatbots son aplicaciones informáticas que pueden imitar una conversación real, gracias a que aprenden de las interacciones que mantienen las personas reales. Este tipo de programas son muy utilizados por empresas para ofrecer servicios de atención al público las 24 horas del día.

De las interacciones con las personas los chatbot pueden aprender a tener un buen o mal comportamiento.

En 2016 Microsoft tuvo que disculparse después de que los usuarios de Twitter enseñaran a su chatbot a ser racista.

Meta admite que BlenderBot 3 puede decir algo incorrecto e imitar un lenguaje que podría ser "inseguro, tendencioso u ofensivo". Esto, a pesar de que la empresa dijo que había tomado medidas para evitar este tipo de situaciones embarazosas.

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Créditos: BBC Mundo

SÍGUENOS EN NUESTRAS REDES
COMENTAR
GUARDAR

Recomendados

  • FUERA DEL FúTBOL
  • COLOMBIANOS EN EL EXTERIOR
  • CURIOSIDADES DE FúTBOL
  • LIGA BETPLAY