à¹à¸§à¸à¹à¸²à¸à¸±à¸ à¸à¸à¸±à¸à¸à¸´à¹à¸¨à¸©
เมื่อมันมาถึงการระบุภัยคุกคามที่มีอยู่ที่เกิดจากนวัตกรรมทางเทคโนโลยีจินตนาการที่เป็นที่นิยมก็เรียกวิสัยทัศน์ของ Terminator, เดอะเมทริกซ์ และ ฉันหุ่นยนต์ - dystopias ปกครองโดยหุ่นยนต์ผู้ที่ใช้ประโยชน์และกำจัดผู้คนจำนวนมาก ในฟิวเจอร์สที่มีการเก็งกำไรเหล่านี้การรวมกันของความฉลาดพิเศษและความตั้งใจชั่วร้ายนำคอมพิวเตอร์ไปสู่การทำลายล้างหรือกดขี่มนุษยชาติ
อย่างไรก็ตามการศึกษาใหม่แสดงให้เห็นว่ามันจะเป็นการใช้งานซ้ำ ๆ ของ A.I ที่จะนำไปสู่ผลกระทบทางสังคมอย่างรุนแรงภายในไม่กี่ปีข้างหน้า รายงาน -“ การใช้ปัญญาประดิษฐ์ที่เป็นอันตราย” - ประพันธ์โดยนักวิจัยและนักวิทยาศาสตร์ 26 คนจากมหาวิทยาลัยชั้นนำและรถถังคิดที่เน้นเทคโนโลยีเน้นแนวทางที่ A.I ในปัจจุบัน เทคโนโลยีคุกคามความมั่นคงทางกายภาพดิจิตอลและการเมืองของเรา เพื่อนำการศึกษาเข้ามามีส่วนร่วมกลุ่มวิจัยได้พิจารณาเฉพาะเทคโนโลยีที่มีอยู่แล้วหรือน่าเชื่อถือภายในห้าปีข้างหน้า
สิ่งที่ศึกษาพบ: AI. ระบบจะมีแนวโน้มที่จะขยายภัยคุกคามที่มีอยู่แนะนำใหม่และเปลี่ยนลักษณะของพวกเขา วิทยานิพนธ์ของรายงานคือความก้าวหน้าทางเทคโนโลยีจะทำให้การกระทำผิดบางอย่างง่ายขึ้นและคุ้มค่ายิ่งขึ้น นักวิจัยอ้างว่าการปรับปรุงใน A.I นั้น จะลดปริมาณทรัพยากรและความเชี่ยวชาญที่จำเป็นในการโจมตีทางไซเบอร์ลดอุปสรรคในการก่ออาชญากรรม:
ค่าใช้จ่ายในการโจมตีอาจลดลงเนื่องจากการใช้ระบบ AI ที่ปรับขนาดได้เพื่อให้งานที่ต้องใช้แรงงานความฉลาดและความเชี่ยวชาญเป็นปกติ ผลตามธรรมชาติคือการขยายกลุ่มของนักแสดงที่สามารถทำการโจมตีเฉพาะอัตราที่พวกเขาสามารถทำการโจมตีเหล่านี้และชุดของเป้าหมายที่มีศักยภาพ
รายงานทำให้คำแนะนำสี่ข้อ:
1 - ผู้กำหนดนโยบายควรร่วมมืออย่างใกล้ชิดกับนักวิจัยทางเทคนิคเพื่อตรวจสอบป้องกันและลดการใช้ AI ที่เป็นอันตราย
2 - นักวิจัยและวิศวกรในด้านปัญญาประดิษฐ์ควรคำนึงถึงลักษณะการใช้งานแบบคู่ของพวกเขาอย่างจริงจังเพื่อให้การพิจารณาที่ผิดพลาดมีอิทธิพลต่อลำดับความสำคัญและบรรทัดฐานการวิจัยและการเข้าถึงเชิงรุกถึงผู้มีส่วนร่วมที่เกี่ยวข้อง
3 - แนวทางปฏิบัติที่ดีที่สุดควรระบุไว้ในส่วนการวิจัยที่มีวิธีการที่เป็นผู้ใหญ่มากขึ้นสำหรับการจัดการกับข้อกังวลการใช้งานแบบดูอัลเช่นความปลอดภัยของคอมพิวเตอร์
4 - พยายามขยายขอบเขตของผู้มีส่วนได้ส่วนเสียและผู้เชี่ยวชาญด้านโดเมนที่เกี่ยวข้องในการหารือเกี่ยวกับความท้าทายเหล่านี้
วิธี A. สามารถทำให้การหลอกลวงในปัจจุบันฉลาดขึ้น: ตัวอย่างเช่นการโจมตีด้วยฟิชชิงหอกซึ่งศิลปินคอนปลอมเป็นเพื่อนของสมาชิกในครอบครัวหรือเพื่อนร่วมงานเพื่อให้ได้รับความไว้วางใจและดึงข้อมูลและเงินเป็นภัยคุกคามอยู่แล้ว แต่วันนี้พวกเขาต้องการค่าใช้จ่ายที่สำคัญของเวลาพลังงานและความเชี่ยวชาญ ในฐานะที่เป็น A. ระบบมีความซับซ้อนเพิ่มขึ้นกิจกรรมบางอย่างที่จำเป็นสำหรับการโจมตีแบบฟิชชิงหอกเช่นการรวบรวมข้อมูลเกี่ยวกับเป้าหมายอาจเป็นไปโดยอัตโนมัติ ฟิชเชอร์สามารถลงทุนพลังงานน้อยลงอย่างมากในแต่ละล่องแก่งและกำหนดเป้าหมายผู้คนมากขึ้น
และถ้าผู้หลอกลวงเริ่มรวมเอไอ ใน grifts ออนไลน์ของพวกเขามันอาจเป็นไปไม่ได้ที่จะแยกแยะความเป็นจริงจากการจำลอง “ ในขณะที่ AI พัฒนาต่อไปการแชทบ็อตที่น่าเชื่อถืออาจทำให้มนุษย์ขาดความเชื่อมั่นโดยให้ผู้คนมีส่วนร่วมในการสนทนาที่ยาวนานขึ้นและในที่สุดก็อาจปลอมแปลงเป็นภาพให้กับบุคคลอื่นในวิดีโอแชทได้” รายงานกล่าว
เราได้เห็นผลของวิดีโอที่สร้างจากเครื่องในรูปแบบของ Deepfakes แล้ว เนื่องจากเทคโนโลยีเหล่านี้เข้าถึงได้ง่ายขึ้นและเป็นมิตรกับผู้ใช้มากขึ้นนักวิจัยกังวลว่านักแสดงที่ไม่ดีจะเผยแพร่รูปภาพวิดีโอและไฟล์เสียงที่ประดิษฐ์ขึ้น ซึ่งอาจส่งผลให้แคมเปญการหมิ่นประมาทประสบความสำเร็จอย่างสูงด้วยการขยายสาขาทางการเมือง
นอกเหนือจากคีย์บอร์ด: และความผิดพลาดที่อาจเกิดขึ้นไม่ได้ จำกัด อยู่ที่อินเทอร์เน็ต ในขณะที่เราก้าวไปสู่การยอมรับยานพาหนะอัตโนมัติแฮ็กเกอร์อาจปรับใช้ตัวอย่างฝ่ายตรงข้ามเพื่อหลอกรถยนต์ที่ขับด้วยตนเองให้เข้าใจสภาพแวดล้อมรอบตัว “ ภาพของเครื่องหมายหยุดที่มีพิกเซลเปลี่ยนแปลงเล็กน้อยในรูปแบบที่เฉพาะเจาะจงซึ่งมนุษย์สามารถจดจำได้อย่างง่ายดายว่ายังคงเป็นภาพของสัญญาณหยุดอย่างไรก็ตามอาจถูกจำแนกผิดเพี้ยนเป็นอย่างอื่นโดยระบบ AI” รายงานกล่าว
ภัยคุกคามอื่น ๆ ได้แก่ โดรนอัตโนมัติพร้อมซอฟต์แวร์จดจำใบหน้าแบบบูรณาการสำหรับการกำหนดเป้าหมายการโจมตีแบบ DOS ที่ประสานกันซึ่งเลียนแบบพฤติกรรมมนุษย์และการบิดเบือนข้อมูลส่วนบุคคลแบบอัตโนมัติ
รายงานแนะนำให้นักวิจัยพิจารณาแอปพลิเคชั่นที่อาจเป็นอันตรายของ A.I ในขณะที่การพัฒนาเทคโนโลยีเหล่านี้ หากไม่มีมาตรการป้องกันที่เพียงพอเราอาจมีเทคโนโลยีในการทำลายมนุษยชาติโดยไม่ต้องมีหุ่นยนต์นักฆ่า