Les xarxes neuronals profundes permeten obtindre veus sintètiques cada vegada més realistes, la qual cosa pot generar desinformació quan s'usa, per exemple, per a suplantar veus de personalitats públiques i polítics. Un equip de la la Universitat de Granada i de l'empresa espanyola Monoceros Labs ha desenrotllat un sistema que ajuda a discernir quan la gravació és real o falsa.
Investigadors de la Universitat de Granada (UGR), han dissenyat un mètode amb el qual es pot saber si un àudio de veu és real o està generat mitjançant algorismes d'Intel·ligència Artificial (IA). En l'actualitat, els avanços en l'ús de xarxes neuronals profundes per a la síntesi d'àudio permet obtindre veus sintètiques (generades mitjançant IA) cada vegada més realistes.
Això té grans avantatges, ja que permet dotar de veus més intel·ligibles als sistemes automàtics (per exemple, lectors de text, assistents virtuals, robots…), així com controlar les seues característiques per a fer-les més expressives i diverses (amb aplicacions per exemple en la producció de contingut multimèdia).
La síntesi de parla també es pot utilitzar per a crear o manipular gravacions d'àudio per a fins maliciosos, com la suplantació d'identitat
Però, d'altra banda, la síntesi de parla també es pot utilitzar per a crear o manipular gravacions d'àudio per a fins maliciosos, com la suplantació d'identitat en estafes telefòniques o la generació de notícies falses.
Fins ara, l'àudio ha sigut un problema menor en les redaccions en comparació amb altres tipus de fake, com les fotografies o els vídeos. No obstant això, en els últims dos anys han augmentat els casos, per la qual cosa cal comptar amb ferramentes que ajuden a la detecció d'àudios falsos i puguen servir als periodistes com una nova font per a la verificació de notícies.
La investigació, dirigida pels professors Zoraida Carrerons i David Griol, s'ha realitzat en el context de la Càtedra RTVE-UGR, en la qual tots dos investigadors participen juntament amb RTVE i l'empresa Monoceros Labs.
Combatre la desinformació
Les línies de l'estudi s'han aplicat en este cas a la verificació d'àudios per a combatre la desinformació. “Hem generat una ferramenta que integra solucions pròpies i de tercers per a discernir si un àudio és real o està generat amb algorismes d'intel·ligència artificial”, expliquen els investigadors.
La ferramenta entrena al sistema IA mitjançant veus generades pels investigadors perquè el sistema puga identificar si la veu és falsa o no amb gran precisió
“Una de les novetats que introduïx esta ferramenta és que no sols integra models generals, sinó també models específics generats en la UGR per a veus de personalitats que són objectiu freqüent de desinformació”, destaquen.
Durant la presentació del projecte, els investigadors han posat com a exemple veus clonades mitjançant tècniques de IA per a la conversió i clonació de veu de Monoceros pertanyents al Rei Felip VI; el president del Govern, Pedro Sánchez, o la vicepresidenta Yolanda Díaz.
“El nostre objectiu no és generar estes veus sintètiques de manera artificial, sinó entrenar a nostra IA mitjançant estes veus generades per nosaltres perquè així el sistema puga identificar si una veu és falsa o no amb una alta precisió”, assenyalen els desenrotlladors.
Actualment, l'equip treballa per a anar més enllà de la verificació i desenrotllar ferramentes per als periodistes basades en IA conversacional, que proporcionen interactivitat, accessibilitat i personalització de continguts informatius.
Font: Universitat de Granada
Drets: Creative Commons.
Crònica CT
* ho pots llegir perquè som Creative Commons
* ho pots llegir perquè som Creative Commons
Cap comentari :