Deepfake to technika obróbki, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Niestety, coraz częściej wykorzystywana jest w swoim najmroczniejszym kontekście: "doklejanie" twarzy danej osoby do kompromitującego nagrania może doprowadzić do tragicznych skutków, zwłaszcza wśród młodych ludzi, którzy częściowo żyją w świecie internetu.
Bella Thorne, amerykańska aktorka, wokół której głośno było w związku z opublikowanymi przez nią rozbieranymi zdjęciami, w dokumencie BBC podejmującym ten temat żali się, że spotkała ją podobna historia:
Nagrałam film, na którym mówię m.in. o tym, że tęsknię za nieżyjącym ojcem, a oni skleili to z filmem masturbującej się dziewczyny - mówi aktorka, która została laureatką nagrody Pornhub. Ludzie naprawdę uwierzyli, że to ja na tym filmie. Nie wiem, czy ta aplikacja jest jakoś regulowana prawnie, ale problem nie dotyczy tylko celebrytów, a również zwykłych ludzi - zaznacza.
Bellę śledzi na Instagramie ponad 20(!) milionów osób, więc jej zasięgi są gigantyczne. Myślicie, że jej głos w tej sprawie zmieni coś w kwestii coraz popularniejszych deepfake'ów?
