Tay ของ Microsoft ล้มเหลวในการทดสอบทัวริงหรือไม่? ใช่ แต่การเหยียดเชื้อชาติไม่ใช่ปัญหา

$config[ads_kvadrat] not found

द�निया के अजीबोगरीब कानून जिन�हें ज

द�निया के अजीबोगरीब कानून जिन�हें ज
Anonim

หากความสำเร็จของปัญญาประดิษฐ์คือการสร้างของประดิษฐ์ บุคลิกภาพ, A.I ของ Microsoft ธ ปท. อาจถูกมองว่าเป็นสัญลักษณ์ของความก้าวหน้า แต่ในวงกว้างมากขึ้นเทย์สามารถตัดสินความล้มเหลวได้

“ เป้าหมายของคนส่วนใหญ่ที่ทำงานเกี่ยวกับตัวแทนการสนทนาประเภทนี้ไม่มากนักที่จะผ่านการทดสอบทัวริง แต่จริงๆแล้วมีคำสั่งภาษาที่มีประโยชน์ที่ตอบสนองต่อสิ่งต่าง ๆ และให้ผู้คนเข้าถึงความรู้” Miles Brundage, ปริญญาเอก นักเรียนที่กำลังศึกษามิติทางวิทยาศาสตร์และเทคโนโลยีของมนุษย์และสังคมที่ Arizona State University บอก ผกผัน.

Microsoft แสดงปัญหาบางประการของการสร้าง A.I รายการในสัปดาห์นี้เมื่อภายในเวลาไม่ถึง 24 ชั่วโมงอินเทอร์เน็ตได้เปลี่ยนความหมายของการเป็นตัวละครทวิตเตอร์หญิงอัตโนมัติพันปีไปสู่กระดานสนทนาเพื่อพูดจาเหยียดผิวและเหยียดหยามมากที่สุดที่โทรลล์เสนอ

Microsoft ปิดการทดลองทันทีและขออภัย:“ เราเสียใจอย่างสุดซึ้งต่อทวีตที่ไม่พึงประสงค์และเป็นอันตรายจาก Tay ซึ่งไม่ได้แสดงถึงสิ่งที่เราเป็นหรือสิ่งที่เรามุ่งมั่นหรือวิธีที่เราออกแบบ Tay”

เมื่อพูดถึงการทดสอบทัวริงการทดลองที่มีชื่อเสียงที่ใช้ประเมินเอเอไอนั้นบรันเดจกล่าวว่าโดยทั่วไปมีโรงเรียนแห่งความคิดสองแห่ง - ตามตัวอักษรและทฤษฎี

Alan Turing พัฒนาขึ้นในปี 1950 พยายามที่จะตอบคำถามที่ว่า "เครื่องจักรสามารถคิดได้อย่างไร?" เขาวางเครื่องผ่านการทดสอบเลียนแบบซึ่งต้องการผู้สังเกตการณ์ในการกำหนดเพศของผู้สัมภาษณ์สองคนหนึ่งในนั้นคือ A. หากคอมพิวเตอร์สามารถหลอกลวงผู้สังเกตการณ์จำนวนหนึ่งได้แสดงว่าผ่านการทดสอบแล้ว

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 มีนาคม 2559

หากเราจะใช้การทดสอบนี้อย่างแท้จริงใน ผกผันของ การสนทนาส่วนตัวกับ Tay เธอตอบคำถามทางการเมืองอย่างละเอียดทำการอ้างอิงถึงกุญแจมือของ "mannnnn" ในสังคมและใช้ตัวย่อ texting และ emojis ทั่วไป Brundage กล่าวว่า Tay ได้แสดงพฤติกรรมพันปี แต่สิ่งเหล่านี้ของ A.I ถูกสร้างขึ้นมาก่อน

“ ความสามารถในการผลิตคำพูดที่ดูเป็นวัยรุ่นใน Twitter นั้นไม่ได้เป็นความจริงที่มีความสามารถด้านภาษาศาสตร์และปัญญาที่ทัวริงมีอยู่ในใจ Brundage กล่าว “ นั่นบอกว่าถ้าเราจะทำการทดสอบทัวริงอย่างแท้จริงซึ่งฉันไม่คิดว่าจะต้องแนะนำให้เลือกตัวแปรหนึ่งคือความคิดเห็นของเธอจำนวนมากดูเหมือนมนุษย์เหมือนกัน”

แต่ถ้าเราจะใช้วิธีที่กว้างกว่านี้ตามที่ Brundage แนะนำเราก็เห็นได้ชัดว่า Tay ไม่ได้แสดงคำพูดของมนุษย์อย่างสมเหตุสมผล

Microsoft กำลังทดสอบสิ่งที่เรียกว่า "ความเข้าใจในการสนทนา" เช่นเดียวกับที่เธอพูดคุยผ่าน Twitter, GroupMe และ Kik ยิ่งมีคนมากเธอก็ควรเรียนรู้และปรับตัวมากขึ้น แต่เธอก็แค่ทำซ้ำสิ่งที่ผู้ใช้คนอื่นกำลังป้อนให้และทำซ้ำมันกลับไปสู่โลก

"Tay" เปลี่ยนจาก "มนุษย์สุดเท่ห์" เป็นนาซีแบบเต็มใน <24 ชั่วโมงและฉันไม่ได้กังวลเกี่ยวกับอนาคตของ AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 มีนาคม 2559

“ มนุษย์ส่วนใหญ่ไม่เพียง แต่พูดซ้ำหลังจากคุณทุกสิ่งที่คุณพูด” Brundage กล่าว

"บุชได้ทำ 9/11" และ "ฮิตเลอร์น่าจะทำงานได้ดีกว่าลิงที่เราได้ตอนนี้" บางทีอาจเป็นสิ่งที่ใครบางคนพิมพ์ให้กับเทย์ แต่มันไม่ใช่การสนทนาที่สุภาพ

“ เนื้อหาวัตถุประสงค์ของเขาในการสื่อสารการทดสอบทัวริงน้อยกว่าเพื่อกำหนดรายละเอียดของการทดสอบบางอย่างและอื่น ๆ เพื่อกระตุ้นให้ผู้คนคิดว่า 'ณ จุดใดที่คุณจะเต็มใจอยู่ในระบบที่มีความคิดสร้างสรรค์นี้' ความเป็นไปได้ที่เครื่องจักรสามารถคิดได้” Brundage กล่าว

$config[ads_kvadrat] not found