Destacat Legal Notícies Tendències

El Chat GPT és, sens dubte, l’eina d’intel·ligència artificial que en les darreres setmanes ha revolucionat el panorama internacional. Amb un algoritme capaç de donar conversa i treure dades i informació, des de qui és qui fins a dissenyar un curs sencer de màrqueting (per citar dos exemples), l’eina desenvolupada per Open AI està en boca de tothom. Per les seves grans capacitats, però també pels incompliments de les normatives que porta implícit en el seu funcionament així com pels riscos que comporta.

En aquest sentit, cal destacar que en la darrera setmana, les autoritats italianes han optat per bloquejar temporalment l’ús de l’aplicatiu en tot el seu territori a causa dels dubtes que desperta, especialment en matèria de protecció de dades. L’Agència de Protecció de Dades espanyola ha iniciat una investigació d’ofici per un possible incompliment de la normativa de dades personals i n’ha elevat la problemàtica al Comitè Europeu de Protecció de Dades (EDPB) per tal de poder avaluar què cal fer amb aquest tipus d’intel·ligències artificials. En aquest context, l’EDPB ha creat un grup de treball (“task force”) per fomentar la cooperació i intercanviar informació sobre les accions que hagin emprès les autoritats de protecció de dades.


Andorra no és pas aliena a la problemàtica entorn a l’ens d’Open AI i des de l’Agència Andorrana de Protecció de Dades s’ha posat la vista sobre de Chat GPT. “Estem seguint molt de prop les respostes que Open AI pugui donar als requeriments d’informació que ha fet Itàlia, en matèria de protecció de dades, i veure com es desenvolupa la investigació oberta a Espanya” ha explicat la directora de l’agència, Resma Punjabi. Des de l’APDA apel·len a la responsabilitat a l’hora de fer ús d’aquest tipus d’aplicacions.

“Pensem que és important que tothom sigui conscient del que són aquestes tecnologies i per aquest motiu proposem una sèrie de mesures cautelars fins veure quina direcció acaba prenent el grup de treball del Comitè Europeu” ha dit Punjabi. Així doncs, des de l’agència andorrana el que recomanen és d’una banda no fer ús del Chat GPT, i que, en el cas que se’n faci, evitar facilitar qualsevol tipus de dada personal, a la vegada que tampoc demanar-ne d’altres persones. En aquest sentit, també es recomana la lectura atenta de la política de privadesa de la plataforma perquè cada usuari sigui conscient dels riscos als que s’exposa.

Llacunes de seguretat
Alguns dels principals problemes que registra l’ús de l’aplicació d’Open AI tenen clara referència en el tractament de les dades personals dels usuaris que fan. D’una banda, Chat GPT no té un sistema clar que permeti diferenciar i restringir l’ús per part dels menors d’edat. A més a més, pel que fa al tractament de les dades personals dels usuaris, no existeix una veracitat de la informació que genera el programari sobre les persones, ni tampoc existeix la possibilitat que les persones afectades la puguin rectificar o instar a la seva eliminació en cas que aquesta sigui errònia, incomplint així la possibilitat d’exercir els drets relatius a la protecció de dades que recull la LQPD .

Cal recordar que, a banda d’Espanya i Itàlia, són diversos estats europeus els que apunten a prendre mesures contra la intel·ligència artificial d’Open AI. En aquest cas, Alemanya no descarta seguir els passos que ha emprès Itàlia i, des d’Àustria l’associació IG Autorinen Autoren, que s’encarrega de vetllar pels drets d’autor, ha demanat la suspensió del Chat GPT fins que s’esclareixi i es garanteixi que no es vulneren els drets d’autor. Sense oblidar el comunicat apocalíptic amb tocs de ciència-ficció que van signar un grup d’investigadors de caràcter mundial, entre els quals Elon Musk (accionista d’Open AI) on s’advertia dels riscos de la implantació sense control d’IA com el Chat GPT o del buscador Bling.

Comparteix publicació:

Related Posts

No Comments

Leave a Reply