BRIEF: ผู้หญิงหลายคนในเกาหลีใต้ ทยอยลบรูปตัวเองจากมือถือ เพราะกลัวถูกเอาไปทำ Deepfake
.
ทำไมผู้หญิงเกาหลีใต้หลายคน จึงทยอยลบภาพตัวเองออกจากโซเชียลมีเดีย? เมื่อประเทศกำลังเผชิญกับ ‘สถานการณ์ฉุกเฉิน’ จากอาชญากรรมผ่านสื่อลามกอนาจาร ที่สร้างผ่าน Deepfake หรือ AI ที่สามารถสร้างภาพและวิดีโอ เลียนแบบ ‘คน’ ได้อย่างแนบเนียน
.
เกิดอะไรขึ้น?
.
ประเด็นนี้ได้รับความสนใจมากขึ้น หลังจากชาย อายุราว 40 ปี ศิษย์เก่าของมหาวิทยาลัยแห่งชาติโซล (Seoul National University) ถูกกล่าวหาพร้อมกับชายอีกสามคน ว่าใช้ ‘Deepfake’ ในการสร้างภาพและวิดีโอที่มีเนื้อหาทางเพศ และแชร์บนเทเลแกรม (Telegram) หรือแอปพลิเคชันสำหรับส่งข้อความหรือแชท
.
ขณะนี้ทางการเกาหลีใต้สามารถระบุตัวเหยื่อจากเหตุการณ์นี้ได้แล้ว 61 ราย สร้างความตื่นตระหนกในสังคม จนผู้หญิงหลายคนต้องรีบลบภาพตัวเองออกจากโซเชียลมีเดีย และนำไปสู่การพูดถึงคดีอาชญากรรมทางเพศอื่นๆ ที่ปลอมแปลงขึ้นโดยใช้ Deepfake
.
“รู้สึกเหมือนอะไรที่ควรจะเป็นสถานที่ที่ปลอดภัยที่สุดสำหรับเรา เป็นส่วนหนึ่งในชีวิตประจำวันของเรา วันนี้มันกลับถูกคุกคาม” หญิงวัย 27 ปี บอกกับสำนักข่าวเดอะโคเรียไทมส์ (The Korea Times) พร้อมเปิดเผยว่าเธอได้ลบร่องรอยของตัวเองทั้งหมดออกจากโซเชียลมีเดีย
.
สิ่งที่น่ากังวลคือ มีรายงานจำนวนสมาชิกมากกว่า 220,000 คน ในช่องสนทนา (channel) ช่องหนึ่งบน Telegram ที่แชร์ภาพและวิดีโอซึ่งคุกคามทางเพศเหยื่อจำนวนมาก อีกทั้งบางช่องมีการมุ่งเป้าไปที่ผู้เยาว์โดยตรง
.
“เหยื่อจำนวนมากเป็นผู้เยาว์ และผู้ก่อเหตุส่วนใหญ่ยังเป็นวัยรุ่นด้วย” ยุน ซอก ยอล (Yoon Suk Yeol) ประธานาธิบดีเกาหลีใต้กล่าว พร้อมกับสั่งปราบปรามอาชญากรรมดังกล่าว โดยตำรวจจะคุมเข้มเป็นเวลา 7 เดือน เพื่อจัดการผู้ที่สร้างและเผยแพร่สื่ออนาจาร ที่สร้างด้วย Deepfake
.
นับตั้งแต่ต้นปี 2024 มีรายงานเหยื่อของ Deepfake จำนวน 781 ราย ที่ขอความช่วยเหลือจากหน่วยงานของรัฐ โดยในจำนวนนี้มี 288 ราย (คิดเป็น 36.9%) เป็นเยาวชน
.
“วัยรุ่นจำนวนมากมักคิดว่ามันเป็นเกมที่พวกเขาเล่น เพื่อยกระดับตัวเอง ซึ่งมักจะเป็นการแข่งขันกับเพื่อนวัยเดียวกัน” แบ จองวอน (Bae Jeong-weon) ศาสตราจารย์พิเศษของมหาวิทยาลัยซอง (Seong University) กล่าว พร้อมชี้ว่าการเห็นผู้หญิงเป็นวัตถุทางเพศ และการดูสื่อลามกอนาจารตั้งแต่อายุน้อย ทำให้ผู้ก่อเหตุหลายคนรู้สึกเฉยๆ กับสิ่งที่ทำ
.
รายงานความเสียหายที่เกิดขึ้น อาจไม่ใช่แค่ตัวเลขจำนวนเหยื่อ แต่เป็นการชี้ให้เห็นปัญหาที่ใหญ่กว่านั้น เมื่อผู้กระทำผิดหลายคนตั้งใจคุกคามผู้อื่น โดยไม่ตระหนักถึงผลร้ายที่เหยื่อจะได้รับ การใช้ชีวิตด้วยความระแวง ที่แม้การโพสต์ภาพตัวเองบนโซเชียลมีเดียยังเป็นเรื่องอันตราย คงเป็นฝันร้ายของใครหลายคน
.
.
.
อ้างอิงจาก
https://www.koreatimes.co.kr/www/nation/2024/09/251_381693.html
https://www.bbc.com/news/articles/cg4yerrg451o
https://www.theguardian.com/world/articl⋯/south-korea-deepfake-porn-law-crackdown
#Deepfake #AI #เกาหลีใต้ #TheMATTER
.
ทำไมผู้หญิงเกาหลีใต้หลายคน จึงทยอยลบภาพตัวเองออกจากโซเชียลมีเดีย? เมื่อประเทศกำลังเผชิญกับ ‘สถานการณ์ฉุกเฉิน’ จากอาชญากรรมผ่านสื่อลามกอนาจาร ที่สร้างผ่าน Deepfake หรือ AI ที่สามารถสร้างภาพและวิดีโอ เลียนแบบ ‘คน’ ได้อย่างแนบเนียน
.
เกิดอะไรขึ้น?
.
ประเด็นนี้ได้รับความสนใจมากขึ้น หลังจากชาย อายุราว 40 ปี ศิษย์เก่าของมหาวิทยาลัยแห่งชาติโซล (Seoul National University) ถูกกล่าวหาพร้อมกับชายอีกสามคน ว่าใช้ ‘Deepfake’ ในการสร้างภาพและวิดีโอที่มีเนื้อหาทางเพศ และแชร์บนเทเลแกรม (Telegram) หรือแอปพลิเคชันสำหรับส่งข้อความหรือแชท
.
ขณะนี้ทางการเกาหลีใต้สามารถระบุตัวเหยื่อจากเหตุการณ์นี้ได้แล้ว 61 ราย สร้างความตื่นตระหนกในสังคม จนผู้หญิงหลายคนต้องรีบลบภาพตัวเองออกจากโซเชียลมีเดีย และนำไปสู่การพูดถึงคดีอาชญากรรมทางเพศอื่นๆ ที่ปลอมแปลงขึ้นโดยใช้ Deepfake
.
“รู้สึกเหมือนอะไรที่ควรจะเป็นสถานที่ที่ปลอดภัยที่สุดสำหรับเรา เป็นส่วนหนึ่งในชีวิตประจำวันของเรา วันนี้มันกลับถูกคุกคาม” หญิงวัย 27 ปี บอกกับสำนักข่าวเดอะโคเรียไทมส์ (The Korea Times) พร้อมเปิดเผยว่าเธอได้ลบร่องรอยของตัวเองทั้งหมดออกจากโซเชียลมีเดีย
.
สิ่งที่น่ากังวลคือ มีรายงานจำนวนสมาชิกมากกว่า 220,000 คน ในช่องสนทนา (channel) ช่องหนึ่งบน Telegram ที่แชร์ภาพและวิดีโอซึ่งคุกคามทางเพศเหยื่อจำนวนมาก อีกทั้งบางช่องมีการมุ่งเป้าไปที่ผู้เยาว์โดยตรง
.
“เหยื่อจำนวนมากเป็นผู้เยาว์ และผู้ก่อเหตุส่วนใหญ่ยังเป็นวัยรุ่นด้วย” ยุน ซอก ยอล (Yoon Suk Yeol) ประธานาธิบดีเกาหลีใต้กล่าว พร้อมกับสั่งปราบปรามอาชญากรรมดังกล่าว โดยตำรวจจะคุมเข้มเป็นเวลา 7 เดือน เพื่อจัดการผู้ที่สร้างและเผยแพร่สื่ออนาจาร ที่สร้างด้วย Deepfake
.
นับตั้งแต่ต้นปี 2024 มีรายงานเหยื่อของ Deepfake จำนวน 781 ราย ที่ขอความช่วยเหลือจากหน่วยงานของรัฐ โดยในจำนวนนี้มี 288 ราย (คิดเป็น 36.9%) เป็นเยาวชน
.
“วัยรุ่นจำนวนมากมักคิดว่ามันเป็นเกมที่พวกเขาเล่น เพื่อยกระดับตัวเอง ซึ่งมักจะเป็นการแข่งขันกับเพื่อนวัยเดียวกัน” แบ จองวอน (Bae Jeong-weon) ศาสตราจารย์พิเศษของมหาวิทยาลัยซอง (Seong University) กล่าว พร้อมชี้ว่าการเห็นผู้หญิงเป็นวัตถุทางเพศ และการดูสื่อลามกอนาจารตั้งแต่อายุน้อย ทำให้ผู้ก่อเหตุหลายคนรู้สึกเฉยๆ กับสิ่งที่ทำ
.
รายงานความเสียหายที่เกิดขึ้น อาจไม่ใช่แค่ตัวเลขจำนวนเหยื่อ แต่เป็นการชี้ให้เห็นปัญหาที่ใหญ่กว่านั้น เมื่อผู้กระทำผิดหลายคนตั้งใจคุกคามผู้อื่น โดยไม่ตระหนักถึงผลร้ายที่เหยื่อจะได้รับ การใช้ชีวิตด้วยความระแวง ที่แม้การโพสต์ภาพตัวเองบนโซเชียลมีเดียยังเป็นเรื่องอันตราย คงเป็นฝันร้ายของใครหลายคน
.
.
.
อ้างอิงจาก
https://www.koreatimes.co.kr/www/nation/2024/09/251_381693.html
https://www.bbc.com/news/articles/cg4yerrg451o
https://www.theguardian.com/world/articl⋯/south-korea-deepfake-porn-law-crackdown
#Deepfake #AI #เกาหลีใต้ #TheMATTER
Korean women scurrying to take down selfies amid deepfake porn crimes
https://www.koreatimes.co.kr/www/nation/2024/09/251_381693.htmlUniversity students and members of women's rights groups hold plancards during a press conference in Gangnam District, Seoul, Aug. 29. YonhapDeepfake porn images have sent many Korean women scurrying
South Korea faces deepfake porn 'emergency'
https://www.bbc.com/news/articles/cg4yerrg451oJean MackenzieSeoul correspondentReporting fromSeoulPA MediaMany of the victims and perpetrators in South Korea are underageSouth Korea’s president has urged authorities to do more to “eradicate” the
South Korea battles surge of deepfake pornography after thousands found to be spreading images
https://www.theguardian.com/world/article/2024/aug/28/south-korea-deepfake-porn-law-crackdownSouth Korea’s president, Yoon Suk Yeol, has ordered a crackdown on an epidemic of digital sex crimes targeting women and girls who become the unwitting victims of deepfake pornography.Yoon’s criticism