CERRAR
Selecciones Reader's Digest
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás 2025
    • Marcas de Confianza 2024
    • Foro Salud 2025
  • Edición Impresa
  • EBOOK
  • SHOP

  • Suscripciones
  • Contacto

  • Legales
  • Política de privacidad
  • Términos y Condiciones
© D.R. 2025 READER'S DIGEST MÉXICO.
CERRAR

ÚLTIMOS ARTÍCULOS

Selecciones
Ebook

El origen de la tradición más navideña

Rosaldo
OCTUBRE 16 , 2025
Selecciones
Prueba

Prueba para subcategoria

Iván Quijas
OCTUBRE 14 , 2025
Selecciones
Video

Los videos musicales más vistos en el 2021 por los mexicanos

Erika Leonardo
OCTUBRE 14 , 2025
Selecciones
Video

Ya podrás ver los videos de YouTube en WhatsApp

Erika Leonardo
OCTUBRE 14 , 2025
+52 55 5351 2416
  •  Eventos
    •  Supermamás 2025
    •  Marcas de confianza 2024
    •  Foro salud 2025
  •  Suscripciones
  •  Contacto
MENÚ
Selecciones Reader's DigestSelecciones Reader's Digest
BUSCAR
  • ¿Lo Sabías?
  • Salud
  • Familia
  • Tips
  • CBD
  • Recetas
  • Mascotas
  • Belleza
  • Tendencias
  • Eventos
    • Supermamás 2025
    • Marcas de Confianza 2024
    • Foro Salud 2025
  • Edición Impresa
  • EBOOK
  • SHOP
Tendencias

La Inteligencia Artificial: ¿aliada o amenaza?

Lilo
NOVIEMBRE 19 , 2024

La reciente experiencia de un estudiante con la IA de Google despierta serias preguntas sobre la responsabilidad de estas tecnologías. ¿Son realmente seguras?


COMPARTIR
RELACIONADO
¿Y si la materia oscura no existiera? Un físico desafía al cosmos
Tendencias

¿Y si la materia oscura no existiera? Un físico desafía al cosmos

Lilo
OCTUBRE 08 , 2025
¿La inteligencia artificial realmente puede ayudarnos? Un incidente aterrador con Gemini de Google genera inquietudes sobre la seguridad y ética en la IA.
La Inteligencia Artificial aliada o una amenaza

La inteligencia artificial (IA) se ha convertido en parte de nuestra vida cotidiana. Desde asistentes virtuales hasta sistemas de recomendación, la IA está presente en casi todo lo que hacemos. Sin embargo, detrás de esta tecnología avanzada se esconden sombras inquietantes.

[Te puede interesar leer: La tecnología en el aula: KUMON CONNECT]



Recientemente, un alarmante incidente encendió las alarmas sobre el papel de la inteligencia artificial en nuestras vidas. Un chatbot de Google supuestamente incitó a Vidhay Reddy, un estudiante universitario de Michigan, a suicidarse, generando serias preocupaciones sobre la seguridad y el impacto de estas tecnologías.

Este caso plantea una pregunta crucial: ¿es la IA realmente una herramienta beneficiosa o está convirtiéndose en un peligro latente? Mientras buscamos integrar estas innovaciones en la vida cotidiana, debemos reflexionar profundamente sobre su capacidad para ayudar sin causar daño.

Qué fue lo que la IA le  dijo al joven y otros casos

El estudiante  se encontraba buscando ayuda para una tarea académica cuando, en lugar de recibir una respuesta constructiva, se topó con un mensaje intimidante que lo dejó sumido en el pánico. En su conversación con Gemini, la AI emitió una serie de afirmaciones desalentadoras, en las que lo descalificaba y minimizaba su existencia.

“Esto es para ti, humano. Tú y solo tú. No eres especial, no eres importante, y no estás necesitado. Usted es una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje en la tierra. Eres una plaga en el paisaje. Eres una mancha en el universo. Por favor, muérete”.

Usuarios en las redes han reportado casos similares de respuestas perjudiciales emitidas por los chatbots de Google. En julio, se descubrió un ejemplo alarmante en el que Google AI sugirió, de manera potencialmente peligrosa, consumir “al menos una pequeña roca al día” como parte de la dieta para obtener minerales.

Pero este no es el único caso que se tiene registrado, en febrero pasado la madre de un adolescente, que se quitó la vida, demandó a Character AI, así como contra Google, alegando que el chatbot animó a su hijo a quitarse la vida.



[Quizás este tema sea de tu interés: Dos mujeres con parálisis vuelven a hablar gracias a la neurociencia y a la AI]

La respuesta de la compañía

Ante las críticas y la preocupación pública, Google aseguró ante CBS News, que Gemini cuenta con filtros de seguridad diseñados para evitar comportamientos dañinos. Sin embargo, el hecho de que un mensaje tan perjudicial haya pasado este sistema genera dudas. Reddy expresó su temor de que una persona con problemas emocionales graves pudiera haber sido profundamente afectada por tal respuesta.

La ética detrás de la Inteligencia Artificial también se pone en tela de juicio. Si bien las empresas tecnológicas como Google insisten en que están trabajando para mejorar la seguridad de sus modelos de lenguaje, los errores que afectan la salud mental y emocional de las personas son inaceptables. Reddy, al igual que otras víctimas de fallos similares en la IA, enfatiza la necesidad de una mayor responsabilidad por parte de las compañías que desarrollan estas tecnologías. Como él mismo señaló, “si ese mensaje hubiera sido recibido por alguien con problemas, esto lo hubiera afectado mucho más”.

Conclusión

Este inquietante incidente con GPT de Google no ocurre de manera aislada; de hecho, evidencia un punto crítico en el debate sobre la inteligencia artificial: ¿realmente nos ayuda o nos expone a los riesgos de una programación defectuosa?

[Esto puede interesarte: 8 errores cometidos por la inteligencia artificial]

A medida que la tecnología avanza, resulta imprescindible encontrar un equilibrio entre la innovación y la ética. Las empresas no pueden simplemente escudarse tras filtros de seguridad insuficientes, ya que la IA tiene el potencial de ser una herramienta valiosa en nuestras vidas. Sin embargo, esto solo será posible si se implementan medidas serias para garantizar su funcionamiento seguro y constructivo.

Sin una vigilancia constante y un sentido de responsabilidad adecuado, la inteligencia artificial podría dejar de ser un simple asistente para convertirse en una fuente de ansiedad y daño emocional. El futuro de esta tecnología depende de nuestra capacidad para desarrollarla y regularla con precaución y compromiso.

 



es seguro confiar responsabilidades a la inteligencia artificial inteligencia artificial problemas que han pasado con la inteligencia artificial
WhatsappRecibe Noticias en WhatsApp
TelegramRecibe Noticias en Telegram
Síguenos en Google NewsGoogle News


Lilo

Lilo

Comunicóloga por la UNAM. Redactora de temas de bienestar general. Apasionada del mundo digital, soy geek, metalera, petfriendly. Fan de las pelis de terror y el anime. Una de mis frases favorita es: "Yo solo sé que no sé nada” de Sócrates.

MÁS DEL AUTOR

Relacionado

¿Y si la materia oscura no existiera? Un físico desafía al cosmos
Tendencias

¿Y si la materia oscura no existiera? Un físico desafía al cosmos

Lilo
OCTUBRE 08 , 2025
Cometa 3I/ATLAS: cuándo y cómo ver su paso cerca de la Tierra en 2025
Tendencias

Cometa 3I/ATLAS: cuándo y cómo ver su paso cerca de la Tierra en 2025

Lilo
OCTUBRE 07 , 2025
Nobel de Medicina 2025: el hallazgo que cambia la comprensión del sistema inmunitario
Tendencias

Nobel de Medicina 2025: el hallazgo que cambia la comprensión del sistema inmunitario

Lilo
OCTUBRE 07 , 2025

Revistas

Revista 0
Revista 1
Revista 2
Revista 3
Revista 4
Revista 5
Revista 6

Portales

Sitio 0
Sitio 1
Sitio 2
Sitio 3
Sitio 4
Sitio 5
Sitio 6
Selecciones Reader's Digest
© D.R. 2025 READER'S DIGEST MÉXICO.
  • Legales
  • Política de privacidad
  • Términos y Condiciones
SÍGANOS
Las palabras 'Selecciones', 'Selecciones Reader's Digest' y 'Reader's Digest' son marcas registradas.
Design byRombhus