La cara no siempre es el espejo del alma, los fallos y los sesgos del reconocimiento facial
70 catedráticos y expertos han firmado una carta en la que solicitan la formación de un comite interdisciplinar que analice los riesgos de esta tecnología

Imagine que se encuentra en una entrevista de trabajo y, de golpe y porrazo, el encargado de recursos humanos le dice que no es apto para el puesto que solicita porque un software ha determinado que no cumple con los requisitos. O que se dirige ... al banco a solicitar un préstamo, y una máquina dispone que, por sus rasgos y su comportamiento, encaja en el perfil de un ‘moroso’. Los sistemas de reconocimiento facial , capaces de categorizar a una persona en función de sus rasgos faciales, sus gestos y su comportamiento, llevan años figurando entre los principales problemas éticos a los que hace frente la tecnología . Y según su implantación va creciendo a nivel global, también lo hace la preocupación de los expertos por sus posibles usos lesivos.
Recientemente, un grupo compuesto por más de 70 académicos, juristas y demás personalidades del ámbito tecnológico han enviado una carta al Gobierno español solicitando una moratoria en el uso de estos sistemas. Su objetivo es que un comité independiente realice un estudio de sus potenciales usos perjudiciales y de los errores que ha cometido hasta la fecha actual. En concreto, los expertos señalan que estos sistemas pueden asociar a una persona a un patrón erróneo, ya que «más allá de correlaciones estadísticas» no hay modelos científicos aceptados que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros.
Por el contrario, destacan que esta tecnología todavía tiene «graves deficiencias», fomenta las «clasificaciones racistas, clasistas y/o sexistas» y que, en algunas partes del mundo, su empleo está limitando derechos fundamentales . «Estamos viendo que el reconocimiento facial se está empleando, en algunos casos, para monitorizar a la población. Especialmente en lugares donde no hay derechos reconocidos», dice a ABC Ofelia Tejerina, abogada, presidenta de la Asociación de Internautas y firmante de la misiva.
El reconocimiento facial no es algo nuevo. Es una tecnología que se lleva desarrollando desde hace más de una década. Gracias a ella muchos usuarios son capaces de desbloquear sus móviles o realizar pagos sin necesidad de ingresar ningún código numérico o patrón. También se está empleando para mejorar la seguridad en aeropuertos en tiempos de pandemia. Por ejemplo, el aeropuerto Adolfo Suárez Madrid-Barajas cuenta con un piloto de esta tecnología que está pensado para agilizar el embarque de los pasajeros. La detección biométrica de cada usuario se realiza mediante el uso de dispositivos de tipo tablet.
En otros países, como Reino Unido, se está implementando notablemente su uso con el objetivo de perseguir la criminalidad. Sin embargo es China el estado que está apostando con más fuerza por su desarrollo . En el país asiático los dispositivos de reconocimiento facial se cuentan por millones y se pueden encontrar en aeropuertos, centros comerciales, oficinas y calles. Recientemente varias empresas tecnológicas del país han pedido la patente para aplicaciones que pueden detectar y vigilar a los miembros de la minoría china uigur, musulmana y perseguida por el régimen comunista.
En la carta enviada por los expertos al Gobierno, se llama la atención directamente sobre el reciente intento de Renfe de instalar sistemas de reconocimiento facial en el transporte. La ferroviaria abrió un concurso público por 700.000 euros para contratar un sistema de vigilancia capaz de detectar usuarios sin mascarilla y controlar el aforo. Sin embargo, también debía permitir identificar el género, la etnia o incluso el estado emocional de los usuarios con el fin de prevenir conflictos. La posibilidad de que estos sistemas creen sesgos, y se utilicen para catalogar a una persona como conflictiva, «simplemente porque otros que se le parecen lo son», preocupa a los expertos. «Estos sistemas detectan un patrón, no exactamente todos los detalles de tu cara, sino el patrón que cumplen tus rasgos. Preocupan mucho las decisiones jurídicas que se puedan tomar mediante su uso teniendo en cuenta que un patrón se puede cumplir o no», apunta Tejerina.
A este respecto, los firmantes de la carta destacan que no hay ningún estudio sólido que demuestre que los rasgos de una persona son capaces de determinar su personalidad y su forma de actuar. Estas clasificaciones, a su parecer, «están claramente asociadas a experimentos nefastos del pasado como la eugenesia, la frenología o la criminalística de Lombros». Un reciente estudio dirigido por Peter Claes, de la Universidad Católica de Lovaina - KU Leuven (Bélgica) y en el que se emplearon los datos genéticos de más de 20.000 personas, observó que, incluso con tecnologías avanzadas, es imposible predecir el comportamiento de una persona en función de sus rasgos faciales. «Esta tecnología tiene fallos sin control. Y el problema está en que, en determinados casos, puede llegar a limitar derechos fundamentales», señala Tejerina a este respecto.
«Algunos sistemas apuntan que pueden detectar la intención de una persona. Un fallo en esta tecnología puede suponer un problema grave. Por ejemplo que ha habido voluntariedad en la comisión de un delito porque lo ha detectado una cámara. Estamos hablando de que una persona puede pasar mucho tiempo en prisión por un error», completa la presidenta de Internautas.
¿Qué debemos hacer?
El reconocimiento facial, como tal, no está regulado. Hace apenas un año la Comisión Europea desestimó la recomendación de una moratoria de cinco años en su uso en lugares públicos. En estos momentos, cada estado miembro es el encargado de decidir sobre ella. El abogado Samuel Parra destaca a este diario que ahora mismo tanto una institución pública como una empresa privada pueden emplear sistemas de reconocimiento facial . Sin embargo, hace falta contar con una serie de requisitos para tratar esta información. «Los datos biométricos, capaces de identificar a una persona entre todas las demás, están dentro de un grupo que la normativa de protección de datos llama categoría especial, junto a la información relativa a opiniones políticas, a las creencias reliogiosas o la salud. Para que una entidad pública o privada pueda utilizarlos, sus motivaciones deben estar en consonancia con el Reglamento General de Protección de Datos», apunta Parra, que destaca que, además, el usuario debería dar su consentimiento para ello. Asimismo, apela a buscar soluciones menos intrusivas que esta tecnología siempre que sea posible .
De acuerdo con la presidenta de la Asociación de Internautas no es necesario regular la tecnología en sí, lo que hace falta es establecer exactamente cuáles son las situaciones en las que es correcto hacer uso de ella : «Lo que es importante es que se establezca para qué se puede utilizar un sistema de reconocimiento facial y que sea una excepción; no la norma general. ¿Se va a utilizar para el sector privado o para el público? ¿En qué circunstancias?».
Otros juristas consultados por este diario destacan que el empleo de estos sistemas puede ser positivo en determinadas circunstancias, pero no puede ser norma. «Es una tecnología muy intrusiva en la identidad y en la intimidad. Está justificada por motivos de seguridad, como en la lucha antiterrorista o en aeropuertos», explica a este respecto Borja Adsuara, abogado y expresidente de Red.es. El experto destaca que es importante que seamos «razonables» en su uso; pero que, evidentemente,«no puede emplearlo cualquiera por cualquier motivo». Asimismo, se muestra partidario de «regular los malos usos que se hagan de estos sistemas. No la tecnología en sí», ya que puede ser útil en determinadas circunstancias. «Imagínate que todas las personas que sufren Covid desarrollan un tipo de mancha en la cara. Gracias al reconocimiento facial podríamos saber si alguien está contagiado o no», apunta Adsuara.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete