Los peligros de la inteligencia artificial y el uso del rostro humano en internet Los peligros de la inteligencia artificial y el uso del rostro humano en internet
Camp de Túria - Notícies -
Sant Antoni, L'Eliana, Bétera, Riba-roja, Pobla de Vallbona, Serra, Benissanó, Olocau, Llíria, Gàtova, Nàquera, Vilamarxant......

Seccions del Crònica

Pots buscar açí en el diari

Los peligros de la inteligencia artificial y el uso del rostro humano en internet



Shutterstock / Trismegist san

Cada día compartimos fotografías nuestras y de otras personas en redes sociales. Este acto tan habitual nos expone a posibles delitos digitales contra la privacidad y la identidad personal. Se trata de un problema que aumenta si consideramos la actual falta de legislación en el ámbito de la inteligencia artificial.

Desde que comenzó el milenio vivimos en la que conocemos como era digital, o sociedad de la información y la comunicación. En esta nueva realidad social, la inteligencia artificial nos permite procesar rápidamente grandes cantidades de datos. Estos cálculos ayudan a conocer las tendencias de los mercados, la opinión pública y los cambios atmosféricos.

Su aplicación a la robótica ha marcado grandes avances en medicina, telecomunicaciones y domótica. Estos cambios han modificado nuestra vida diaria, nuestras viviendas y nuestra interacción con los demás.

A diario confiamos en la inteligencia artificial para realizar tareas automáticas de manera eficaz. En muchos sentidos es superior a la inteligencia humana y por ese motivo confiamos más en ella.

La inteligencia artificial y sus limitaciones

Entre los principales retos y aplicaciones de la inteligencia artificial están la medicina y el cuidado de personas vulnerables. Sin embargo, es precisamente aquí donde se pone de manifiesto una de las limitaciones de este campo. La falta del componente afectivo limita el uso de las inteligencias artificiales.

A día de hoy no existe robots con una apariencia suficientemente humana para imitar expresiones faciales y emociones. Esa capacidad empática, interpretativa e intuitiva característica del ser humano no existe actualmente en robótica.

La inteligencia artificial también se postulaba como sustituto del humano en contextos educativos que favorecen el aprendizaje autónomo. Sin embargo, la reciente experiencia de educación online debido a la covid-19 ha puesto de manifiesto lo contrario. La interacción cara a cara entre los estudiantes y el profesorado es esencial para el aprendizaje significativo.

La subjetividad humana y el rostro digital

Aun teniendo esa gran capacidad de procesar enormes cantidades de datos, la inteligencia artificial aún no ha conseguido atribuirles significado. Hacer que estos datos sean significativos o relevantes es algo que solo el ser humano puede hacer (lo hacemos continuamente cada vez que, por ejemplo, hacemos "me gusta" o retuiteamos). Es decir, somos nosotros quienes decidimos qué datos son importantes o destacados para cada situación específica.

Esto es debido a que el significado va estrechamente unido a la respuesta ética que la subjetividad humana da frente al rostro de otro ser humano. Sin este mutuo reconocimiento, el big data no significa nada. Por eso a menudo debemos confirmar que "no soy un robot". Es así como la inteligencia artificial reconoce que nuestra interacción online –nuestro rostro digital– es significativa.

Los peligros de la inteligencia artificial y las distopías digitales

La usurpación de la identidad humana es uno de los peligros más temidos en relación con la inteligencia artificial. La ansiedad que este miedo genera se ve reflejada en obras de ciencia ficción tan populares como los clásicos filmes Blade Runner (1982) y Matrix (1999), y más recientemente, series digitales como Black Mirror (2011), Humans (2015), y Maniac (2018).

En todas ellas, el fin de la sociedad que conocemos tiene sus bases en la dominación y control por parte de inteligencias artificiales que simulan el rostro y el comportamiento humano. Sin embargo, los peligros que la tecnología plantea en relación con la utilización del rostro humano en entornos digitales toman una forma diferente, aunque igualmente amenazadora.

Retos de la justicia frente a la inteligencia artificial

La utilización del rostro humano en inteligencias artificiales presenta grandes retos para el derecho. El rostro como elemento biométrico que nos identifica como persona está protegido de diferentes formas. Por un lado, los derechos a la identidad y a la autodeterminación van a permitir proteger a los sujetos de las posibles alteraciones que produzca la inteligencia artificial.

Por otro lado, los sistemas de reconocimiento facial están considerados como de alto riesgo en el borrador de regulación de la inteligencia artificial de la Comisión Europea. Para su utilización se van a tener que testar en sistemas seguros, realizar códigos de conducta y establecer sistemas de cumplimiento ético de gran complejidad. Los casos de utilización de sistemas de vigilancia masivos mediante reconocimiento facial van a ser prohibidos por su gran impacto en la privacidad, libertad y autonomía de los ciudadanos.

El procesamiento de rostros está llegando a un nivel en el que no vamos a poder distinguir entre lo que es real y lo que es ficticio (como ocurre con los filtros en redes sociales, por ejemplo). Esto produce un gran daño a la reputación de la persona cuyo rostro se está procesando y, además, puede ser utilizado para alterar nuestros sistemas democráticos destruyendo la reputación de nuestros representantes (véase casos recientes de deep fake).

Los restos de regulación e impacto en los derechos fundamentales por la utilización maligna de nuestros rostros constituye una amenaza que ha de ser abordada y protegida por los sistemas jurídicos. La finalidad es la de poder seguir siendo persona dentro de un entorno en el que la tecnología nos pueda ayudar a superar los grandes retos que tiene nuestra sociedad.

The Conversation

Ana Chapman recibe fondos de la Consejería de Economía, Conocimientos, Empresa y Universidad de la Junta de Andalucía y Fondos Europeos de Desarrollo Regional (Proyectos A‐HUM‐22‐UGR20 y P20_00008)

mirfer@ugr.es recibe fondos del Ministerio de Ciencia, Innovación y Universidades (Proyecto PID2019-106855GB-I00), de la Consejería de Economía, Conocimientos, Empresa y Universidad de la Junta de Andalucía y Fondos Europeos de Desarrollo Regional (Proyectos A‐HUM‐22‐UGR20 y P20_00008),

Javier Valls Prieto no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.


Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada
Puedes leerlo porque la Fuente - TheConversation es Creative Commons
Publicat per Àgora CT. Col·lectiu Cultural sense ànim de lucre per a promoure idees progressistes Pots deixar un comentari: Manifestant la teua opinió, sense censura, però cuida la forma en què tractes a les persones. Procura evitar el nom anònim perque no facilita el debat, ni la comunicació. Escriure el comentari vol dir aceptar les normes. Gràcies

Cap comentari :

BlueSky Mastodon NotaLegal