Siirry sisältöön

Etsi sivustolta

Etusivulle
Insinööriliitto
  • en
    • Yleistä jäsenyydestä
      • Liity jäseneksi
      • Edunvalvonta
      • Jäsenedut
      • Osallistu toimintaan
      • Vartiosaaren huvila
      • Huvilan varauskalenteri
    • Tulevat tapahtumat
      • Kerro tapahtumaideasi
    • Kaikki ajankohtaiset
      • Insinöörikulma-podcast
      • Lehtiarkisto
    • Yleistietoa
      • Hallitus
      • Säännöt
      • Arvot ja strategia
      • Historia
  • Yhteystiedot
Liity jäseneksi
  • Etusivu
  • Jäsenelle
    • Liity jäseneksi
    • Edunvalvonta
    • Jäsenedut
    • Osallistu toimintaan
    • Vartiosaaren huvila
      • Huvilan varauskalenteri
  • Tapahtumat
    • Kerro tapahtumaideasi
  • Ajankohtaiset
    • Insinöörikulma-podcast
    • Lehtiarkisto
  • Yhdistys
    • Hallitus
    • Säännöt
    • Arvot ja strategia
    • Historia
  • Yhteystiedot
Insinööriliitto
  • Tietosuojaselosteet
  • Henkilötietojen käsittely

Ratavartijankatu 2 C, 6. krs
00520 Helsinki

toimisto@helins.fi p.040 150 3878
Ajankohtaiset
Hyvin syviä väärennöksiä

Hyvin syviä väärennöksiä

Syväväärennökset ovat uhka, mutta aivan kaikkeen tekoäly ei kuitenkaan kykene.

21.5.2024 | Pinnalla | Tekoäly
Matti Välimäki

TOIMITUSJOHTAJA SOITTI YRITYKSEN talouspäällikölle ja pyysi tekemään yllättävän tilisiirron. Tämä kummeksui, aprikoi, eikä lopulta tehnyt työtä käskettyä. Kävi ilmi, että rikolliset olivat generoineet toimitusjohtajan aidolta kuulostaneen äänen tekoälyohjelmalla.

Tuossa yksi Kyberturvallisuuskeskukseen tullut ilmoitus syväväärennöksistä. Viime vuoden toinen tapaus koski politiikassa mukana olevaa henkilöä, joka puhui videolla asioita, joita ei ollut todellisuudessa koskaan lausunut.

Liikenne- ja viestintäviraston Kyberturvallisuuskeskuksen erityisasiantuntija Aino Sirola kertoo, että deepfaket eli tekoälyn avulla luodut kuvan, äänen tai videon syväväärennökset eivät työllistä keskusta vielä paljoa. Yrityksillä tai yksityishenkilöillä ei ole niihin liittyvää ilmoitusvelvollisuutta ja moni tapaus jäänee kertomatta. Arkielämässämme deepfakeihin törmää kuitenkin yhä useammin.

– Erilaisia ohjelmia, joilla voi valmistaa aidolta näyttäviä kuvia ja ääniä on tarjolla paljon ja ne ovat hyvin helppokäyttöisiä. Työkaluja, joilla voi vaihtaa henkilöiden kasvoja toisiksi, löytyy vaikkapa somesta. Tuollaisia ohjelmia voi käyttää viattomaan pilailuun, mutta valitettavasti myös ikävämpiin tarkoituksiin, Sirola mainitsee

Maailmalta on uutisoitu esimerkiksi tapauksista, joissa isovanhemmilta on yritetty saada rahaa puheluilla, joissa on käytetty tekoälyn avulla luotua lapsenlapsen ääntä. Poliittisessa propagandassa ja disinformaatiossa syväväärennöksiä käytetään yhä enemmän, yleensä vastapuolen mustamaalaamiseen. Deepfake-pornossa kenen tahansa kasvot voidaan yhdistää jonkun toisen alastomaan vartaloon, tavallisesti häväistystarkoituksessa.

Deepfake-videot kuuluvat arsenaaliin myös esimerkiksi Gazan sodassa sekä Venäjän aloittamassa hyökkäyssodassa Ukrainaa vastaan. Jo sodan alkuvaiheissa esiin nousi syväväärennetty video, jossa presidentti Volodymyr Zelenskyi kehotti ukrainalaisia antautumaan. Videon teettäjää ei ole kovin vaikea arvata. (Ks. mm. Associated Press / apnews.com 3.11.23.)

PARAS ASE DEEPFAKEJA vastaan on kriittisyys ja medialukutaito, muistuttaa Aino Sirola.

– Kannattaa esimerkiksi muistaa, että viestiin on aina jokin syy. Mieti, kuka viestin jakaa, missä, miksi ja mitä hän yrittää mahdollisesti saavuttaa.

Journalistisia periaatteita noudattavassa, lähteensä huolellisesti tarkistavassa mediassa syväväärennöksiin törmää harvoin. Mikäli tällainen media erehtyy pitämään väärennöstä aitoina, se oikaisee virheensä.

Syväväärennöksiä kohtaa todennäköisemmin netissä, sosiaalisessa mediassa ja erityisesti erilaisilla disinformaatiota ja salaliittoteorioita jakavilla sivustoilla, missä niitä käytetään yleensä tarkoituksella. Usein tällaiset sivustot yrittävät naamioitua oikeiksi uutissivustoiksi ja jäljittelevät niitä esimerkiksi ulkoasultaan ja nimeltään.

Mikäli viesti kuulostaa yllättävältä, uskomattomalta – tai vaikkapa liian hyvältä ollakseen totta – se ei yleensä ole totta. Tieto kannattaa vähintäänkin tarkistaa useammasta eri lähteestä.

Kuvakaappus ja kollaasi Kyberturvallisuuskeskuksen deepfake-videon materiaalista.
Kuva: Kuvakaappus ja kollaasi Kyberturvallisuuskeskuksen deepfake-videon materiaalista.

SYVÄVÄÄRENNÖKSET KEHITTYVÄT KOKO ajan taitavammiksi. Aivan kaikki ei tekoälyltäkään kuitenkaan vielä onnistu.

– Kuvissa kannattaa kiinnittää huomiota kokonaisuuteen, mutta myös erilaisiin kriittisiin yksityiskohtiin. Katso, ovatko esimerkiksi varjot ja heijastumat oikein ja näyttääkö iho luonnolliselta. Tekoälyllä on usein vaikeuksia myös käsien asentojen, sormien, silmien ja nenänpäiden kanssa, Sirola kertoo.

Tekoälyllä saattaa olla sormensa pelissä myös silloin, jos puhe vaikuttaa rytmiltään kummalliselta tai monotoniselta. Lisäksi videoissa on hyvä tarkkailla huulten ja äänen yhteispeliä. Siltä varalta, että joku saa tutultaan oudolta tuntuvan puhelun, Sirolalla on spesiaalivinkki:

– Kysy soittajalta jotain, mihin vain sinä ja aito henkilö tiedätte. Kysy vaikkapa, mikä henkilön lempinimi oli lapsena tai mistä eilisessä kokouksessa puhuttiin.

MYÖS FACEBOOK-TILEJÄ VOIDAAN kaapata ja henkilön Facebook-kavereita lähestyä, osittain syväväärennöksiäkin hyödyntäen.

– Mikäli epäilet, että on kyse identiteettivarkaudesta, niin ota asianosaiseen henkilöön yhteys jollakin toisella välineellä. Soita vaikkapa puhelimella, ja varmista, että viestit ovat todellakin tulleet häneltä.

Tilikaappaukset ja muut someongelmat pitää antaa ilmi kyseisen somepalvelun tarjoajalle. Somealustoilla on myös omia järjestelmiä, joilla ne pyrkivät, vaihtelevalla menestyksellä, estämään erilaisia huijauksia sekä moderoimaan sisältöään ja lisäämään julkaisuihin merkintöjä niiden virheellisestä faktasisällöstä.

Käytännössä myös tekoäly on opetettu taistelemaan tekoälyllä luotuja syväväärennöksiä vastaan ja erottamaan epäaidon aidosta. Vertailukohtia löytyy helposti muualta kyberturvallisuudesta: kun toiset yrittävät koko ajan luoda haittaohjelmia tai löytää verkosta teknisiä haavoituksia, toiset yrittävät kehittää näitä vastaan suojamekanismeja.

SYVÄVÄÄRENNÖSTEN MÄÄRÄ LISÄÄNTYY. Pessimisti saattaisi pohtia, että olemme siirtymässä maailmaan, missä kukaan ei voi enää luottaa näkemäänsä.

– Paniikkiin ei ole syytä. Mutta on tärkeää, että niin organisaatiot kuin yksilötkin tunnistavat uuden ilmiön. Tällöin opimme myös tulemaan sen kanssa toimeen, erityisasiantuntija Sirola sanoo.

Kyberturvallisuuskeskus on kehottanut jokaista kiinnittämään huomioita myös esimerkiksi omaan digitaaliseen jalanjälkeensä eli siihen, minkälaisia merkkejä ja syväväärennöksiin kelpaavaa materiaalia verkkoon jätämme. Tämä koskee myös läheisiämme, lapsillakin on oikeus omaan yksityisyyteensä.

Lisää aiheesta:
Liikenne- ja viestintävirasto Traficomin Kyberturvallisuuskeskuksen tuottama YouTube-video Kun jokainen päivä voi olla aprillipäivä – Mistä deepfakeissa on kysymys?

Minkälaista on tekoälyn luoma ääni? Osviittaa antavat Youtubesta ja Tiktokista löytyvät Pressat pelaa -videot. Vaikka videot ovat satiirisia, niiden tekijät ovat saaneet palautetta myös ihmisiltä, jotka ovat luulleet, että äänessä ovat aidot presidentinvaalien ehdokkaat (HS 3.4.2024).

Tekoälyn avulla on myös käsitelty tunnettujen artistien ääntä ja laitettu heidät esittämään kappaleita, joita he eivät ole todellisuudessa koskaan esittäneet. Youtubesta voi katsoa esimerkiksi, miten jo edesmenneeltä Johnny Cashilta sujuu kappale Barbie Girl. Monet artistit Billie Eilishista Stevie Wonderiin ovat vaatineet suojaa tällaista tekoälyn käyttöä vastaan.


Jaa:

Nostojuttuja

23.2.2022 | Pinnalla
HI:n verkkosivuille kätevästi puhelimella
29.10.2024 | Pinnalla | Henkilö
Insinööriyden moniottelija uskoo järjestön voimaan
21.1.2025 | Luottopuhetta | Työmarkkinablogi
Onko insinööreillä joukkovoimaa, jopa lakkovalmiutta?

Pinnalla

8.5.2025 | Pinnalla | Teknologia
Tekninen kehitys tuo sodan kaikkialle
5.5.2025 | Pinnalla | Hyvinvointi
Bara bada bastu – vai ajatus saunan tekniikallekin?
14.4.2025 | Pinnalla | Tekniikka
Vinyylilevy ei väisty
10.4.2025 | Pinnalla | Yhdistys
Vuosikokous katsoi myös eteenpäin

Lisää luettavaa

Ihmisiä elokuvateatterissa odottamassa seminaarin alkua, valkokankaalla puhujien kuvat ja nimet.
8.5.2025 | Pinnalla | Teknologia

Tekninen kehitys tuo sodan kaikkialle

Digitaalinen jalanjälki tekee myös ihmismielestä maalitaulun.

Vartiosaaressa sijaitsevan Vådötorpin sauna.
5.5.2025 | Pinnalla | Hyvinvointi

Bara bada bastu – vai ajatus saunan tekniikallekin?

Saunan suunnitteluun ja toteutukseen ei aina panosteta riittävästi.

Kuva laitteesta, jolla tehdään vinyyli-äänilevyjä.
14.4.2025 | Pinnalla | Tekniikka

Vinyylilevy ei väisty

Suomen ainoa älppäritehdas sijaitsee Helsingin Kyläsaaressa.

Kuva kokoussalista jonka vasemmalla laidalla yleisöä pöytien ääressä, takana kokouksen vetäjät.
10.4.2025 | Pinnalla | Yhdistys

Vuosikokous katsoi myös eteenpäin

Jäsenmäärän suotuisa kehitys antaa toiminnalle vakaan pohjan.

Tule mukaan toimintaan!

Helsingin Insinööreissä olet osa porukkaa – yhdessä edistämme insinööriyttä nyt ja tulevaisuudessa.

Liity jäseneksi

Ratavartijankatu 2 C, 6. krs
00520 Helsinki

toimisto@helins.fi 040 150 3878
  • Jäsenelle
  • Tapahtumat
  • Ajankohtaiset
  • Yhdistys
  • Yhteystiedot
Ota yhteyttä
Helsingin Insinöörit 2025
  • Tietosuojaselosteet
  • Henkilötietojen käsittely
  • Evästeet
Insinööriliitto