AI ดีกว่าที่จะประนีประนอมกว่ามนุษย์ค้นหาการศึกษาใหม่

$config[ads_kvadrat] not found

पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H

पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H
Anonim

มาเผชิญหน้ากัน นับตั้งแต่ปัญญาประดิษฐ์ถูกฝันขึ้นเป็นครั้งแรกมนุษย์กลัววันที่ผู้นำ AI ของเราเข้าครอบครอง แต่นักวิจัยบางคนได้ทดสอบความสามารถของปัญญาประดิษฐ์ไม่ใช่แค่ แข่งขัน กับมนุษยชาติ แต่ยังรวมถึง ร่วมมือ.

ในการศึกษาที่เผยแพร่ในวันพฤหัสบดีที่ การสื่อสารทางธรรมชาติ ทีมของศาสตราจารย์วิทยาการคอมพิวเตอร์ BYU, Jacob Crandall และ Michael Goodrich พร้อมด้วยเพื่อนร่วมงานที่ MIT และมหาวิทยาลัยอื่น ๆ ได้สร้างอัลกอริทึมเพื่อสอนความร่วมมือและประนีประนอมเครื่องจักร

นักวิจัยได้ตั้งโปรแกรมเครื่องด้วยอัลกอริธึมที่เรียกว่า S # และวิ่งผ่านเกมจำนวนหนึ่งที่มีคู่ค้าที่แตกต่างกัน - เครื่องจักรกลเครื่องมนุษย์และมนุษย์ - เพื่อทดสอบว่าการจับคู่จะทำให้เกิดการประนีประนอมมากที่สุด เครื่องจักร (หรืออย่างน้อยเครื่องที่ตั้งโปรแกรมด้วย S #) มันกลับกลายเป็นว่าประนีประนอมดีกว่ามนุษย์มาก

แต่สิ่งนี้อาจพูดเพิ่มเติมเกี่ยวกับ“ ความล้มเหลวของมนุษย์” ยาค็อบแครนดอลหัวหน้านักวิจัยกล่าว ผกผัน. “ ผู้เข้าร่วมที่เป็นมนุษย์ของเรามีแนวโน้มที่จะไม่ซื่อสัตย์ - พวกเขาจะบกพร่องในท่ามกลางความสัมพันธ์ที่ร่วมมือกัน - และไม่สุจริต - ประมาณครึ่งหนึ่งของผู้เข้าร่วมของเราเลือกที่จะไม่ทำตามข้อเสนอของพวกเขา - ณ จุดหนึ่งในการมีปฏิสัมพันธ์”

เครื่องจักรที่ได้รับการโปรแกรมให้คุณค่าความซื่อสัตย์ก็คือความซื่อสัตย์ “ อัลกอริทึมเฉพาะนี้กำลังเรียนรู้ว่าคุณลักษณะทางศีลธรรมดี มันตั้งโปรแกรมให้ไม่โกหกและเรียนรู้ที่จะรักษาความร่วมมือเมื่อเกิดขึ้น” Crandall กล่าว

นอกจากนี้การวิจัยพบว่ากลยุทธ์ความร่วมมือบางอย่างมีประสิทธิภาพมากกว่ากลยุทธ์อื่น ๆ หนึ่งในนั้นคือ "การพูดถูก" สัญญาณพูดง่าย ๆ ที่ตอบสนองต่อสถานการณ์ที่กำหนดเช่น "น่ารัก" เรากำลังรวยขึ้น!” หรือ“ ฉันยอมรับข้อเสนอสุดท้ายของคุณ” หรือเพื่อแสดงความไม่พอใจ“ สาปแช่งคุณ!”“ คุณจะจ่ายสำหรับสิ่งนั้น!” หรือแม้แต่“ ในหน้าของคุณ!”

ไม่ว่าเกมประเภทใดที่กำลังเล่นอยู่หรือกำลังเล่นอยู่ราคาคุยเพิ่มขึ้นเป็นสองเท่าของความร่วมมือ มันยังทำให้เครื่องจักรเป็นมนุษย์ด้วยผู้เล่นมนุษย์มักจะไม่สามารถบอกได้ว่าพวกมันมีปฏิสัมพันธ์กับเครื่องจักรหรือมนุษย์

เนื่องจากจุดเน้นของการวิจัยนี้คือการทดสอบอัลกอริทึม S # ข้อบกพร่องอย่างหนึ่งของการวิจัยคือไม่คำนึงถึงความแตกต่างทางวัฒนธรรมในหมู่มนุษย์ที่อาจส่งผลกระทบต่อประชากรมนุษย์ที่แตกต่างกันอาจใช้หรือตีความกลยุทธ์เช่นการพูดคุยราคาถูก ผู้เล่นมนุษย์จำนวนมากอาจมีส่วนร่วมในการหลอกลวงหรือความไม่ซื่อสัตย์

อย่างเป็นเรื่องจริงในเรื่องสั้นสุดท้ายของหนังสือที่มีชื่อเสียงของ Isaac Asimov ในปี 1950 ฉันหุ่นยนต์ -“ The Evitable Conflict” - AI overlords ทำตามความเป็นจริงยึดครองโลก แต่เนื่องจากพวกเขามีเหตุผลและตั้งโปรแกรมด้วยกฎเกณฑ์ทางจริยธรรมที่แตกไม่ได้จึงเป็นเรื่องดีสำหรับเผ่าพันธุ์มนุษย์ และจากการศึกษานี้แสดงให้เห็นว่าการปฏิสัมพันธ์ของมนุษย์นั้นยุ่งและซับซ้อนบางทีเราสามารถเชื่อถือเครื่องจักรได้ ถ้าพวกเขาได้รับการโปรแกรมเพื่อความซื่อสัตย์

บทคัดย่อ:

เนื่องจากอลันทัวริงมองเห็นปัญญาประดิษฐ์ความก้าวหน้าทางเทคนิคมักถูกวัดโดยความสามารถในการเอาชนะมนุษย์ในการเผชิญหน้าแบบไม่มีผลรวม (เช่นหมากรุกหมากรุกหรือไป) มีการให้ความสนใจน้อยลงในสถานการณ์ที่ความร่วมมือระหว่างมนุษย์และเครื่องจักรเป็นประโยชน์ แต่ไม่สำคัญเช่นสถานการณ์ที่มนุษย์และเครื่องจักรไม่ได้รับการจัดแนวอย่างเต็มที่หรือขัดแย้งอย่างเต็มที่ ความร่วมมือไม่จำเป็นต้องใช้พลังการคำนวณที่แท้จริง แต่เป็นการอำนวยความสะดวกโดยสัญชาตญาณบรรทัดฐานทางวัฒนธรรมอารมณ์สัญญาณและการแสดงออกก่อนการพัฒนา ที่นี่เราพัฒนาอัลกอริทึมที่รวมอัลกอริธึมเสริมการเรียนรู้ที่ทันสมัยเข้ากับกลไกสำหรับการส่งสัญญาณ เราแสดงให้เห็นว่าอัลกอริทึมนี้สามารถทำงานร่วมกับผู้คนและอัลกอริธึมอื่น ๆ ในระดับที่แข่งขันกับความร่วมมือของมนุษย์ในเกมสุ่มสองผู้เล่นที่หลากหลาย ผลลัพธ์เหล่านี้บ่งชี้ว่าความร่วมมือระหว่างมนุษย์และเครื่องจักรเป็นไปได้โดยใช้กลไกที่ไม่สำคัญ แต่ในที่สุดก็ง่าย

$config[ads_kvadrat] not found