華盛頓:10月的一個早晨,當來自德克薩斯州的14歲女孩埃利斯(Ellis)醒來時,收到了幾條未接電話和短信,它們都是關于同一件事:她在社交媒體上流傳的裸照。
她并沒有真的拍下這些照片,但這并沒有什么區別,因為人工智能讓所謂的“深度造假”變得越來越逼真。
埃利斯和一個朋友(也是受害者)的照片從Instagram上撤下,然后把他們的臉放在其他人的裸體上。其他學生——都是女生——也被盯上了,這些合成照片在Snapchat上與其他同學分享。
她告訴法新社說:“這看起來是真的,就像那些尸體看起來像真的一樣。”“我記得當時我真的、真的很害怕……我從來沒有做過那種事。”
隨著人工智能的蓬勃發展,深度假色情也在蓬勃發展,用最少的精力和金錢制作出超現實主義的圖像和視頻——在美國多所高中引發了丑聞和騷擾,在缺乏聯邦立法禁止這種做法的情況下,管理人員難以做出回應。
“女孩們就哭了,一直哭。他們感到非常羞愧,”埃利斯的母親安娜·貝里·麥克亞當斯(Anna Berry McAdams)說。她對這些照片的逼真程度感到震驚。“他們不想上學。”
“一部智能手機和幾美元”
雖然很難量化深度造假有多普遍,但埃利斯在達拉斯郊外的學校并不孤單。
月底,美國東北部新澤西州的一所高中爆發了另一起假裸照丑聞。
“這種情況會越來越頻繁,”多洛塔·馬尼(Dorota Mani)說,她也是一名受害者的母親,今年14歲。
她補充說,沒有辦法知道色情深度假貨是否會在人們不知情的情況下在互聯網上流傳,而且調查往往只有在受害者說出來的時候才會展開。
“很多受害者甚至不知道有照片,他們將無法保護自己——因為他們不知道是什么。”
與此同時,專家們表示,法律在跟上技術的步伐方面進展緩慢,盡管更粗俗的假色情作品(通常以名人為焦點)已經存在多年。
不過,現在,任何在領英(linkedIn)上發布像大頭照這樣無辜的東西的人都可能成為受害者。
加州大學伯克利分校的計算機科學教授哈尼·法里德告訴法新社:“任何在這個領域工作的人都知道,或者應該知道,它將以這種方式被使用。”
上個月,美國總統喬·拜登(Joe Biden)就人工智能簽署了一項行政命令,呼吁政府建立“防止制作兒童性虐待材料和制作未經同意的真實個人親密圖像”的護欄。
法里德說,如果在很多情況下很難追查到某些照片的個人創作者,那也不應該阻止這些照片背后的人工智能公司或分享照片的社交媒體平臺承擔責任。
但目前還沒有國家立法限制深度虛假色情內容,只有少數幾個州通過了相關法律。
人工智能倫理學家蕾妮·卡明斯(Renee Cummings)表示:“盡管你的臉被疊加在身體上,但這個身體并不是真正的你。”
這可能會造成“法律上的矛盾”,這位弗吉尼亞大學的教授告訴法新社,因為現有的法律禁止未經同意傳播某人的性照片,但這并不適用于深度造假。
雖然“只要有智能手機和幾美元”,任何人都可以使用廣泛可用的軟件制作這些圖像,但許多受害者——主要是年輕女性和女孩——“不敢公開”。
卡明斯說,深度假色情“可以毀掉一個人的生活”,她引用了遭受焦慮、抑郁和創傷后應激障礙的受害者的例子。
假照片,真創傷
在德克薩斯州,埃利斯接受了警方和學校官員的采訪。但教育和司法系統似乎措手不及。
她的母親貝里·麥克亞當斯(Berry McAdams)說:“我們沒有辦法說,‘是的,這是兒童色情片’,這讓我很沮喪。”
埃利斯照片背后的同學被暫時停課,但埃利斯——之前稱自己是一個社交和外向的人——仍然“經常充滿焦慮”,并要求轉學。
“我不知道有多少人可以保存這些照片并將它們發送出去。我不知道他拍了多少照片,”她說。
“很多人都可以得到它們。”
與此同時,她的母親擔心,如果——或者,考慮到互聯網的壽命,什么時候——這些照片會重新出現。
“這可能會影響他們的余生,”她說。(法新社