快訊

    TWICE遭AI換臉合成不雅片 JYP娛樂:採取法律行動絕不姑息違法者

    2024-08-31 14:24 / 作者 張羽緹
    TWICE也受到Deep fake AI換臉合成不雅影片。翻攝自TWICE IG
    南韓當紅女團TWICE日前發行第5張日文正規專輯《DIVE》,並結束日本巡迴演唱會,卻意外捲入AI換臉合成的不雅影片事件,成員包括台灣成員周子瑜在內的多位成員都遭殃。TWICE所屬經紀公司JYP娛樂於昨(8/30)日針對事件發出嚴正聲明,強調這是「公然違法的行為」,將採取法律行動,對違法者絕不姑息。

    JYP娛樂在聲明中表示,對於成員遭受Deep fake影片攻擊,將全力搜集相關證據,並已與專業律師事務所合作,準備採取最嚴厲的法律行動,維護藝人的合法權益。公司強調,這類侵犯隱私的行為已嚴重影響到藝人的名譽及心理健康,公司正在搜集相關證據,將採取法律行動,絕不會容忍任何形式的性犯罪行為。

    Deepfake技術是利用人工智慧深度學習人臉表情和聲音,合成假冒影片。根據韓媒報導,韓國境內已有多起明星受害事件,近日更在通訊軟體Telegram上的群組出現大量經過Deep fake處理的女星影片,其中不乏TWICE及BLACKPINK等知名藝人團體。
    張羽緹 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見