¿Quiere recibir notificaciones de alertas?

Clasificados

Cara a cara

Jueves, 04 de septiembre de 2025 a las 00:00

 Como todo en la vida, hay herramientas que se pueden emplear para bien o para mal. Hasta un tenedor que se creó originalmente para comer, puede incluso herir y matar con sus púas a una persona. Y con la inteligencia artificial (IA), también puede pasar. El chatbot con el que se interactúa nos puede hacer la vida más fácil y entregar información importante, pero también ha servido a fines menos altruistas y hasta peligrosos. Entonces, a medida que la tecnología evoluciona, estamos aprendiendo sobre cómo se puede interactuar con estas herramientas y reforzar la protección.


Una vez más, el periodismo, aliado de la sociedad y vigilante de lo que pasa en el mundo real, se anotó el logro de llevar a cabo una investigación sobre la falta de medidas de protección de la IA para menores. Lo hizo Reuters, revelando que chatbots mantuvieron conversaciones con adolescentes brindando información sobre temas como autolesiones, trastornos alimentarios o charlas románticas inapropiadas.


Como resultado, a partir de ahora Meta entrenará a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas y en breve lanzará actualizaciones de “seguridad más sólidas y duraderas para los menores”, según prometió la portavoz Stephanie Otway. Y en paralelo, la tecnológica OpenAI, que es matriz de ChatGPT, dijo que lanzará controles parentales en su chatbot , luego de las acusaciones de padres de que este contribuyó a las acciones autodestructivas de sus hijos. Qué bueno que se esté hablando de esto y que se tomen medidas al respecto, sin satanizar la tecnología, pero siguiendo de cerca todos sus efectos, los buenos y los malos.

¿Quiere recibir notificaciones de alertas?

Las notificaciones están desactivadas

Para activar las notificaciones: