Leyendo ahora
Una IA filtra datos de millones de personas que aplicaron a un trabajo de McDonalds

Una IA filtra datos de millones de personas que aplicaron a un trabajo de McDonalds

Una IA filtra datos de millones de personas que aplicaron a un trabajo de McDonalds

La Chispa trae una noticia alarmante pues una IA filtra datos de millones de personas y el mundo apenas comienza a dimensionar las consecuencias. El escándalo estalló cuando se descubrió que el chatbotOlivia’, utilizado por McDonald’s para procesos de reclutamiento, dejó expuestos los datos personales de más de 64 millones de postulantes. La razón: una contraseña tan simple como 123456.

El sistema McHire, operado por la empresa Paradox.ai, fue vulnerado por investigadores que, motivados por quejas en Reddit, decidieron inspeccionar su funcionamiento. Lo que hallaron fue más que un fallo: un agujero crítico en la ciberseguridad corporativa.

El descubrimiento detrás del fallo: cómo Una IA filtra datos de millones de personas

Los investigadores Ian Carroll y Sam Curry accedieron a una cuenta inactiva desde 2019 sin necesidad de hackeo complejo, solo utilizando credenciales predeterminadas. Desde esa puerta abierta, visualizaron nombres, correos electrónicos, teléfonos, direcciones IP y formularios completos de solicitantes.

El descubrimiento detrás del fallo: cómo Una IA filtra datos de millones de personas

Este episodio demuestra cómo una mala implementación tecnológica puede derivar en una filtración masiva. El uso de una inteligencia artificial sin los controles adecuados se convierte en una amenaza real, sobre todo cuando maneja información personal sensible.

¿Qué tan humano es un proceso automatizado?

Más allá de los datos expuestos, Carroll y Curry denunciaron un sistema deshumanizado. Olivia aplicaba pruebas de personalidad simplistas, que obligaban al postulante a responder con frases binarias como “Me representa” o “No me representa”, sin espacio para matices.

Este enfoque no evalúa al candidato, sino que lo moldea según patrones algorítmicos, lo que resulta perturbador. “Parecía más una simulación que un proceso de selección”, explicó Carroll.

¿Qué tan humano es un proceso automatizado?

Ver también
Meta presenta sus lentes Orion: El Futuro de la Realidad Virtual

Además, se detectó que marcar respuestas alineadas con la cultura corporativa aumentaba las posibilidades de avanzar. Así, el sistema promovía respuestas automáticas por encima de la autenticidad.

La reacción oficial: ¿es suficiente?

Paradox.ai reconoció el fallo y aseguró que fue corregido rápidamente. La cuenta vulnerada era de prueba, pero Una IA filtra datos de millones de personas incluso si estos no están en uso activo. McDonald’s Australia calificó el evento como “decepcionante” y aseguró que se trató de un error de un proveedor externo.

Este incidente nos recuerda que “automatizar” no debe ser sinónimo de “descuidar”. Y que los procesos tecnológicos deben estar diseñados con ética, seguridad y humanidad.


© 2024 Grupo Transmedia La Chispa. Todos los derechos reservados

Subir