Tanca l'anunci

El camp de la tecnologia està amenaçat per una sèrie de factors. Els usuaris temen, per exemple, programari maliciós o pèrdua de privadesa. Però, segons figures influents de la indústria tecnològica, no ens hem de preocupar tant pel factor humà en si, sinó per la seva connexió amb la intel·ligència artificial. Al Fòrum Econòmic Mundial d'enguany a Davos, executius d'una sèrie de grans empreses tecnològiques van demanar una regulació legislativa de la indústria. Quins són els seus motius per fer-ho?

“La intel·ligència artificial és una de les coses més profundes en què estem treballant com a humanitat. Té més profunditat que el foc o l'electricitat ". va dir dimecres passat el conseller delegat d'Alphabet Inc. al Fòrum Econòmic Mundial. Sundar Pichai, afegint que la regulació de la intel·ligència artificial requereix un marc de processament global. La directora de Microsoft, Satya Nadella, i la directora d'IBM, Ginni Rometty, també demanen l'estandardització de les normes sobre l'ús de la intel·ligència artificial. Segons Nadella, avui, fa més de trenta anys, és necessari que els Estats Units, la Xina i la Unió Europea estableixin normes que determinin la importància de la intel·ligència artificial per a la nostra societat i per al món.

Els intents d'empreses individuals per establir les seves pròpies regles d'ètica per a la intel·ligència artificial s'han trobat en el passat amb protestes no només dels empleats d'aquestes empreses. Per exemple, Google es va haver de retirar el 2018 del programa secret del govern Project Maven, que utilitzava tecnologia per analitzar imatges de drons militars, després d'una reacció massiva. Stefan Heumann, del grup de reflexió amb seu a Berlín Stiftung Neue Verantwortung, en relació a les controvèrsies ètiques al voltant de la intel·ligència artificial, diu que les organitzacions polítiques haurien d'establir les regles, no les pròpies empreses.

L'altaveu intel·ligent de Google Home utilitza intel·ligència artificial

L'actual onada de protestes contra la intel·ligència artificial té un motiu clar per a aquest moment. En poques setmanes, la Unió Europea ha de canviar els seus plans per a la legislació corresponent. Això podria incloure, per exemple, regulacions sobre el desenvolupament de la intel·ligència artificial en els sectors anomenats d'alt risc com la sanitat o el transport. Segons les noves normes, per exemple, les empreses haurien de documentar en el marc de la transparència com construeixen els seus sistemes d'IA.

En relació amb la intel·ligència artificial, ja han aparegut diversos escàndols en el passat, un d'ells és, per exemple, l'afer Cambridge Analytica. A l'empresa Amazon, els empleats van escoltar els usuaris a través de l'assistent digital Alexa, i l'estiu de l'any passat va tornar a esclatar un escàndol pel fet que l'empresa Google -o la plataforma YouTube- recopilava dades de menors de tretze anys. sense el consentiment dels pares.

Tot i que algunes empreses callen sobre aquest tema, segons la declaració del seu vicepresident Nicola Mendelsohn, Facebook recentment va establir les seves pròpies regles, similars a la regulació europea GDPR. Mendelsohn va dir en un comunicat que aquest va ser el resultat de l'impuls de Facebook per a la regulació global. Keith Enright, responsable de la privadesa de Google, va dir en una conferència recent a Brussel·les que actualment l'empresa està buscant maneres de minimitzar la quantitat de dades dels usuaris que cal recollir. "Però l'afirmació popular generalitzada és que empreses com la nostra intenten recollir tantes dades com sigui possible". va afirmar, a més, i va afegir que tenir dades que no aporten cap valor als usuaris és arriscat.

Els reguladors no semblen menysprear la protecció de les dades dels usuaris en cap cas. Actualment, els Estats Units estan treballant en una legislació federal similar al GDPR. A partir d'ells, les empreses haurien d'obtenir el consentiment dels seus clients per facilitar les seves dades a tercers.

Siri FB

Font: Bloomberg

.