Elokuvasuosituksen vastaanottaminen video-on-demand-alustallasi, puhelimen lukituksen poistaminen kasvoillasi, automaattisen korjauksen käyttäminen ja chat-keskustelu chatbotin kanssa: kaikki nämä ovat arkipäiväisiä esimerkkejä tekoälystä (AI).
Vaikka tekoäly kuulostaa futuristiselta, Euroopan kansalaiset käyttävät sitä jo päivittäin. Sen mahdollisuudet voivat olla loputtomat, mutta pöydällä on myös riskejä.
”Tekoälyn hyödyllisillä tavoilla mahdollisuudet ovat valtavat: vähemmän saastumista, parempi sairaanhoito, paremmat mahdollisuudet, parempi koulutus ja enemmän tapoja, joilla kansalaiset voivat osallistua yhteiskuntaan”, sanoi Margrethe Vestager, Euroopan kilpailukomissaari, joka vastaa myös kilpailusta. digitaalinen.
Sitä voidaan käyttää myös ”terrorismin ja rikollisuuden torjuntaan ja kyberturvallisuuden parantamiseen”, Vestager korosti keskustelussa Euroopan parlamentin tekoälyn erityisvaliokunnassa.
Tässä on katsaus tekoälyn viiteen näkökohtaan ja Euroopan pyrkimyksiin säännellä sitä.
1. Mitä tekoäly on ja miksi meidän pitäisi olla huolissaan?
Tekoäly on tekniikka, jonka avulla koneet voivat havaita, analysoida ja oppia ympäristöstä.
Tämän tiedon avulla he voivat ennustaa ja tehdä omia päätöksiään saavuttaakseen tiettyjä tavoitteita. Tekoälylle on monia sovelluksia: sitä voidaan käyttää lääketieteellisiin tarkoituksiin, kuten Alzheimerin taudin riskin tunnistamiseen, maataloudessa tai työntekijöiden etätyöskentelyn jäljittämiseen.
Tekoäly kerää valtavia määriä dataa ja käyttää tietoa, joka toistaa joitain yhteiskunnan ennakkoluuloja, joten siihen voi liittyä monia riskejä.
Se voi esimerkiksi vaarantaa yksityisyyden, vaarantaa perusoikeudet tai lisätä vähemmistöjen syrjintää.
2. Mikä on EU:n nykyinen kanta tekoälyyn?
”Mitä suurempi riski, jonka tekoälyn tietty käyttö voi aiheuttaa elämällemme, sitä tiukemmat ovat sääntö”, Vestager sanoi viime huhtikuussa määritelläkseen perustan Euroopan komission tekoälyä koskevalle ehdotukselle.
Tekstissä tekoäly jaetaan neljään luokkaan sen kansalaisille aiheuttaman riskin perusteella.
Ne tekniikat, jotka aiheuttavat mahdollisimman vähän tai ei lainkaan riskiä kansalaisille, katsotaan vähimmäisriskiksi, joten niitä voidaan käyttää vapaasti eivätkä uudet säännöt koske niitä. Tämä voi sisältää roskapostisuodattimet.
Rajoitettuun riskiluokkaan liittyy avoimuusvelvoitteita, jotta kansalaiset tietävät, että he ovat vuorovaikutuksessa koneen kanssa, jotta he voivat tehdä tietoisia päätöksiä. Esimerkki tästä ovat chatbotit.
Korkean riskin luokkaan voisi kuulua tekoälyn käyttö kasvojentunnistukseen, oikeudellisiin menettelyihin ja CV-lajittelusovelluksiin. Nämä käyttötavat ovat kiistanalaisia, koska ne voivat olla haitallisia tai niillä voi olla haitallisia seurauksia käyttäjille. Siksi komissio odottaa, että nämä järjestelmät ”arvioitiin huolellisesti ennen markkinoille saattamista ja koko niiden elinkaaren ajan”.
Viimeinen luokka on ”ei hyväksyttävä”. Tämä jättää pois kaikki tekoälyjärjestelmät, jotka ovat ”selvä uhka ihmisten turvallisuudelle, toimeentulolle ja oikeuksille”. Esimerkkinä voi olla hallitusten sosiaalinen pisteytys tai alitajunnan tekniikoiden käyttö.
Euroopan digitaalisten oikeuksien (EDRI) vanhemman neuvonantajan Sarah Chanderin mukaan Euroopan komission ehdotus ”on vaarassa mahdollistaa todella invasiivisen valvonnan ja syrjivät tekoälyjärjestelmät, jotka sen sijaan pitäisi kieltää kokonaan”.
Hän sanoi, että ne voisivat sisältää teknologioita droonien käyttöönottamiseksi rajoilla tai sovelluksia sosiaaliturvaetujen arvioimiseksi.
3. Onko kasvojentunnistus todellisuutta Euroopan unionissa?
Turvallisuustarkoituksiin tarkoitettu kasvojentunnistus on yksi AI-sääntelyn kuumista aiheista.
Euroopan parlamentin vihreiden tilaama äskettäinen tutkimus osoittaa, että 27 jäsenvaltiosta 11 käyttää jo tekoälyä, mukaan lukien Saksa, Ranska, Unkari, Alankomaat ja Suomi.
Komissio katsoo, että tämä on riskialtista käyttöä, mutta Euroopan parlamentti on asiasta eri mieltä. Vaikka jotkut vaativat täydellistä kieltoa, toiset pitävät siitä eri tavalla.
”Vaadimme moratoriota kasvojentunnistusjärjestelmien käyttöönotolle lainvalvontatarkoituksiin, koska tekniikka on osoittautunut tehottomaksi ja johtaa usein syrjiviin tuloksiin”, sanoi Euroopan parlamentin jäsen Petar Vitanov lokakuun puolivälissä.
Mutta tiistaina pidetyssä lehdistötilaisuudessa Euroopan parlamentin jäsen Axel Voss, toisen tekoälyä koskevan tekstin esittelijä, totesi, että ”jopa kasvojentunnistukseen voidaan asettaa suojatoimia, jotta sitä voidaan käyttää, mutta ei väärinkäyttää”.
Kasvojentunnistusta ei jätetä lain ulkopuolelle, mutta paljon sääntelyä saattaa olla kansallisella tasolla, asiantuntijat sanovat.
Vaikka jotkut hallituksen ministeriöt suhtautuvat ”erittäin myönteisesti” ”ihmisoikeusperustaisen sääntelyn tarpeeseen”, Chander sanoo, mutta tilanne ei ole sama sisäministeriöiden kohdalla.
Ne ministeriöt, jotka vastaavat poliisitoiminnasta ”yleensä skeptisemmin kasvojentunnistuksen ja ennakoivan poliisitoiminnan kieltoja vastaan”.
4. Voidaanko toistuvien harhojen riskit välttää?
Euroopan komissio sanoo, että sen tavoitteena on, että tekoälyjärjestelmät ”eivät luo tai toista harhaa”, joten vaatimus