來源 | 新聞晨報、央視網、網友評論
(相關資料圖)
最近,#廣州地鐵#登上熱搜
起因竟是一女子在地鐵上的裸體照片被瘋傳事實上,這張裸體照并非真實照片而是被AI技術一鍵脫衣生成的……
據涇渭視頻報道:近日,廣東廣州,一女子在地鐵上的照片被AI一鍵脫衣,造謠圖在網絡廣泛傳播引發關注。
事實上,照片的女主角是小紅書的一名博主,而所謂的“裸照”則是她去年7月在平臺分享的一張照片。原圖中她衣著正常,完全沒有任何不妥之處,但卻被有心之人用AI軟件一鍵脫衣,故意全網散播。
目前博主已在評論區回復各位網友,稱會進行相關的維權處理。
值得欣慰的是,在這則圖文分享的評論區,已經有眾多網友評論提醒博主被造謠的事實,催促其盡快報警,也有人熱心地幫助其辟謠澄清。
死灰復燃的AI脫衣,偽造謠言百口莫辯
早在2019年,國外程序員就開發出了DeepNude這款使用AI技術“脫衣”的應用,通過使用類似deepfakes的深度學習技術,DeepNude使用女性裸照訓練之后可將圖像中女性身上的衣服替換掉,創造出幾可亂真的合成裸照,也就是大家所說的“一鍵脫衣”。
后因廣泛的輿論爭議,開發團隊選擇將該項目關閉。但記者發現在百度網站搜索“AI脫衣軟件”仍然會出現眾多“替代品”。
點開其中一個AI脫衣軟件,甚至在產品說明頁中有著詳細的說明和“優勢”“亮點”
有博主發視頻稱,在現今AI強大的算法下,時間、地點都對得上的情況下,偽造謠言對普通人來說百口莫辯。而唾手可得的脫衣軟件則更讓造謠者有機可乘。AI換臉換裝,或涉嫌刑事犯罪近年來,“AI換臉”走紅網絡,一些“AI換臉”的App使用明星的圖片制作換臉視頻進行推廣,其趣味性背后暗藏不少法律風險和侵權糾紛。明星劉昊然就曾在2021年8月26日發博打假,控訴網上流傳的某淫穢視頻為AI換臉技術偽造,并向警方報案。
專家表示,在《網絡安全法》第二十七條的規定當中,特別強調,明知他人實施危害網絡安全活動的,不能夠為他提供技術支持,如果情節嚴重,還會構成幫助信息網絡犯罪活動罪等刑事犯罪。