Las universidades españolas controlaron los exámenes en línea con reconocimiento facial. AEPD ha decidido que es suficiente – Noticias ultima hora

La Agencia Española para la Protección de Datos (AEPD) ha llegado a una conclusión clara sobre el uso de sistemas biométricos con inteligencia artificial en la evaluación universitaria en línea. No hay forma de que puedan usarse legalmente, al menos sin una ley específica.

El gatillo. El AEPD ha presentado Una queja contra la Universidad Internacional de Valencia. La VIU había utilizado un sistema que combinaba el uso de herramientas para la inteligencia artificial con una grabación de cámara doble (que el estudiante debe contribuir) para monitorear las pruebas en línea.

Es una práctica que Ha estado yendo por más de tres añosY que la agencia sancionó para rechazar la legitimidad de este procesamiento de datos.

Viu no está solo. La Universidad Internacional de Valencia no es un caso aislado. Algunos de los más respetados de España, como Universidad de BurgosUniversidad de Isabel I, Universidad Europea o la Universidad de La Rioja ha estado implementando este sistema durante años.

Es una solución para la creciente demanda de capacitación 100% en línea con herramientas con las que el estudiante necesita personalmente los exámenes. Según las universidades, el objetivo principal es el fraude y el cambio de identidad durante las calificaciones.

El culpable. Smowl, ese es el nombre de La herramienta para el monitoreo del examen en línea. Esta solución, que se desarrolló tanto para uso comercial como académico, permite el monitoreo con cámara web, cámara adicional, bloqueo del navegador, control de pestañas y finalmente reemplaza el papel humano en el monitoreo del examen.

En el caso del UIV, se garantizó que estos datos fueron pseudo y «rápidamente» eliminados, aunque reconoció que el procesamiento de estos datos «significó un alto riesgo de influencia para los derechos y libertades de las personas afectadas».

Las universidades están cubiertas con las que el estudiante acepta usar estas herramientas aceptando las condiciones generales del curso en el que se ha inscrito. La AEPD tiene una opinión diferente.

No hay legislación que cubra su uso. Las universidades protegen que es el estudiante quien acepta usar estas herramientas aceptando las condiciones generales del curso en el que se ha inscrito. La AEPD tiene una opinión diferente.

«El consentimiento no puede considerarse válido, ya que no había una alternativa real y efectiva para los estudiantes, ya que el software utilizado es el único método que se permitió realizar exámenes en línea. Su rechazo preocupado por los alumnos se refiere a la pérdida de sus derechos de calificación. También la aceptación obligatoria de las condiciones generales para la inscripción».

Estos datos son de una categoría especial y están regulados por Artículo 9 de la Ordenanza General de Protección de Datos (RGPD) Desde 2022. Según la agencia, actualmente no existe una excepción legítica en este artículo o un cierto marco legal que permita estas prácticas. También se rechaza que los estudiantes puedan dar aprobación y no tener alternativa.

Pero no cierra la puerta. La protección de datos no cierre por completo la puerta a estos tipos de sistemas. Indica que es necesario desarrollar regulaciones específicas para determinar que «se pueden garantizar los casos, las condiciones y bajo el tratamiento biométrico garantizado». «

El uso de estas herramientas sin un marco actualmente está sujeto a la sanción de violar el GDPR. No sería necesaria una modificación profunda de la regulación, sería suficiente con una excepción que refleje expresamente estos escenarios de uso.

Reconocimiento de la cara en España. No es la primera vez que España cuestiona el uso de este tipo de sistemas. El Oberta Universidad de Cataluña fue sancionada 2022 con 20,000 para el uso del reconocimiento facial en sus exámenes.

Fuera del área educativa, uno de los casos más populares de Mercadona fue una multa de 2.5 millones de euros para un proyecto piloto en el que probó un sistema de prueba facial en sus supermercados. En un nivel más bajo, las empresas locales también estuvieron expuestas a grandes multas para violar las regulaciones del GDPR en el día de trabajo por biometría.

Sin embargo, es una tecnología que se utiliza en sistemas de videovigilancia como Renfe o Madrid que se usa en las calles con cientos de cámaras con IA para fortalecer la seguridad de la capital.

Fotos | Pexels (Andrea Piacquadio), Perjudica (Dom fou))

En | Pau se acerca: aquí tiene todos los títulos relacionados con la tecnología y la ciencia con sus notas de corte

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas