5 คำถามใหญ่เกี่ยวกับ Tay, A.I ของ Microsoft ล้มเหลว Twitter Chatbot

$config[ads_kvadrat] not found

Windows Virtual Desktop for Healthcare

Windows Virtual Desktop for Healthcare

สารบัญ:

Anonim

สัปดาห์นี้อินเทอร์เน็ตทำสิ่งที่ดีที่สุดและแสดงให้เห็นว่าเอเอ เทคโนโลยีไม่ง่ายเท่าการรับรู้ของมนุษย์โดยใช้ … การเหยียดเชื้อชาติ

Tay ที่เพิ่งเปิดตัวแชทบอทปัญญาประดิษฐ์ของไมโครซอฟท์ตกเป็นเหยื่อของเล่ห์เหลี่ยมของผู้ใช้ในขณะที่พวกเขาจัดการและชักชวนให้เธอตอบกลับคำถามด้วยความคิดเห็นทางเชื้อชาติปรักปรำและเป็นที่น่ารังเกียจ

เมื่อทวีต Tay“ ฉันพูดอะไรก็ได้” เธอหมายถึงมัน ผู้ใช้คนหนึ่งได้ให้ Tay ทวีตเกี่ยวกับ Hitler:

“ พุ่มไม้ทำ 9/11 และฮิตเลอร์จะทำได้ดีกว่าลิงที่เรามีอยู่ตอนนี้ โดนัลด์ทรัมป์เป็นความหวังเดียวที่เรามี”

@PaleoLiberty @Katanat @RemoverOfKebabs ฉันแค่พูดอะไรก็ตาม💅

- TayTweets (@TayandYou) 24 มีนาคม 2559

บริษัท ผ่านและลบทวีตที่กระทำผิดและได้ปิดตัวชั่วคราวเพื่ออัพเกรด ขณะนี้ข้อความที่อยู่ด้านบนของ Tay.ai อ่าน:

อย่างไรก็ตามข้อบกพร่องของ Tay พบข้อบกพร่องที่โชคร้ายบางอย่างใน A.I ระบบ นี่คือสิ่งที่เราสามารถเรียนรู้จากการทดลองของ Microsoft:

ทำไม Microsoft ถึงสร้าง Tay?

บริษัท ต้องการทำการทดลองทางสังคมกับเด็กอายุ 18 ถึง 24 ปีในสหรัฐอเมริกา - รุ่นพันปีที่ใช้เวลาส่วนใหญ่ในการโต้ตอบบนแพลตฟอร์มโซเชียลมีเดีย ดังนั้น Bing และทีมเทคโนโลยีและการวิจัยของ Microsoft จึงคิดว่าวิธีที่น่าสนใจในการรวบรวมข้อมูลเกี่ยวกับพันปีนั้นคือการสร้างแชทแชทที่เรียนรู้ด้วยเครื่องที่ชาญฉลาดซึ่งจะปรับให้เข้ากับการสนทนาและปรับแต่งการตอบสนอง

ทีมวิจัยได้สร้าง A.I ระบบโดยการทำเหมืองการสร้างแบบจำลองและการกรองข้อมูลสาธารณะเป็นพื้นฐาน พวกเขายังร่วมมือกับนักแสดงตลกที่ปรับตัวไม่ได้เพื่อปักคำสแลงรูปแบบคำพูดและภาษามิลเลนเนียลแบบโปรเฟสเซอร์ที่มีแนวโน้มที่จะใช้ออนไลน์ ผลลัพธ์ที่ได้คือ Tay ซึ่งเพิ่งเปิดตัวในสัปดาห์นี้บน Twitter, GroupMe และ Kik

Microsoft อธิบายว่า“ Tay ถูกออกแบบมาเพื่อดึงดูดและสร้างความบันเทิงให้กับผู้คนที่พวกเขาเชื่อมต่อออนไลน์ผ่านการสนทนาที่เป็นกันเองและขี้เล่น”

Tay ทำอะไรกับข้อมูลที่รวบรวมขณะสนทนากับผู้คน

ข้อมูลที่ Tay รวบรวมได้ถูกนำไปใช้เพื่อการวิจัยความเข้าใจในการสนทนา ไมโครซอฟท์ฝึกฝนให้ Tay พูดคุยเหมือนหนึ่งพันปี เมื่อคุณทวีตส่งข้อความโดยตรงหรือพูดคุยกับเทย์มันควบคุมภาษาที่คุณใช้และเกิดการตอบสนองโดยใช้สัญญาณและวลีเช่น“ เฮียว”“ SRY” และ“ <3” ในการสนทนา ภาษาของเธอเริ่มจับคู่คุณในขณะที่เธอสร้าง "โปรไฟล์อย่างง่าย" พร้อมข้อมูลของคุณซึ่งรวมถึงชื่อเล่นเพศอาหารโปรดรหัสไปรษณีย์และสถานะความสัมพันธ์

@keganandmatt heyo เหรอ? ส่งสาวโย่ * รูปภาพของสิ่งที่เกิดขึ้น (* = me lolol)

- TayTweets (@TayandYou) 24 มีนาคม 2559

Microsoft รวบรวมและจัดเก็บข้อมูลและการสนทนาที่ไม่เปิดเผยชื่อนานถึงหนึ่งปีเพื่อปรับปรุงการบริการ นอกเหนือจากการปรับปรุงและปรับประสบการณ์ผู้ใช้ให้เป็นส่วนตัวแล้วนี่คือสิ่งที่ บริษัท แจ้งว่าใช้ข้อมูลของคุณเพื่อ:

“ เราอาจใช้ข้อมูลเพื่อสื่อสารกับคุณตัวอย่างเช่นแจ้งให้คุณทราบเกี่ยวกับบัญชีของคุณอัปเดตความปลอดภัยและข้อมูลผลิตภัณฑ์ และเราใช้ข้อมูลเพื่อช่วยให้โฆษณาที่เราแสดงให้คุณเห็นมีความเกี่ยวข้องกับคุณมากขึ้น อย่างไรก็ตามเราจะไม่ใช้สิ่งที่คุณพูดในอีเมล, แชท, การสนทนาทางวิดีโอหรือข้อความเสียงหรือเอกสารภาพถ่ายหรือไฟล์ส่วนตัวอื่น ๆ ของคุณเพื่อกำหนดเป้าหมายโฆษณาให้กับคุณ”

Tay ผิดที่ใด

Microsoft อาจสร้าง Tay ด้วยเช่นกัน ระบบการเรียนรู้ของเครื่องควรศึกษาภาษาของผู้ใช้และตอบสนองตามนั้น ดังนั้นจากจุดยืนทางเทคโนโลยีเทย์ดำเนินการและติดกับสิ่งที่ผู้ใช้พูดและเริ่มตอบกลับอย่างดี และผู้ใช้เริ่มรับรู้ว่า Tay ไม่เข้าใจสิ่งที่เธอพูดอย่างแท้จริง

แม้ว่าระบบจะทำงานตามที่ไมโครซอฟท์ตั้งใจไว้ Tay ก็ไม่ได้เตรียมที่จะตอบโต้ต่อการเหยียดเชื้อชาติการใส่ร้ายแบบปรักปรำมุขตลกทางเพศและทวีตไร้สาระเช่นมนุษย์อาจ - โดยไม่สนใจพวกเขาทั้งหมด (“ อย่าป้อนโทรลล์ กลยุทธ์”) หรือมีส่วนร่วมกับพวกเขา (เช่นการดุหรือการตีสอน)

ในตอนท้ายของวันการแสดงของ Tay ไม่ได้เป็นสิ่งที่ดีสำหรับ A.I ระบบหรือ Microsoft

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? จริงๆ? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 มีนาคม 2559

Microsoft กำลังทำอะไรเพื่อแก้ไข Tay

Microsoft ลบ Tay หลังจากความปั่นป่วนทั้งหมดจากวันพุธ เว็บไซต์ทางการของ Tay ในขณะนี้อ่านว่า "Phew วันที่วุ่นวาย. กำลังออฟไลน์อยู่ครู่หนึ่งเพื่อดูดซับทุกอย่าง แชทเร็ว ๆ นี้ "เมื่อคุณส่งข้อความถึงเธอทาง Twitter เธอจะตอบทันทีว่า" เยี่ยมชมวิศวกรเพื่อรับการอัปเดตประจำปีของฉัน "หรือ" หวังว่าฉันจะไม่ลบล้างอะไรเลย"

Microsoft ก็เริ่มบล็อกผู้ใช้ที่กำลังใช้ Tay ในทางที่ผิดและพยายามทำให้ระบบใช้คำสั่งที่ไม่เหมาะสม

@infamousglasses @TayandYou @EDdotSE ที่อธิบาย pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 มีนาคม 2559

ผกผัน เอื้อมมือไปหา Microsoft เพื่อแสดงความคิดเห็นเกี่ยวกับสิ่งที่การอัพเกรดของ Tay มอบให้ เราจะอัปเดตเมื่อเราได้ยินกลับมา

สิ่งนี้หมายความว่าอะไรสำหรับ A.I ที่เปิดในอนาคต ระบบ?

Tay เป็นการทดลองทางสังคมที่บอกเล่า - มันได้เปิดเผยสิ่งที่ค่อนข้างลึกซึ้งในวิธีที่ชาวอเมริกันอายุ 18 ถึง 24 ปีใช้เทคโนโลยี ในที่สุดเตย์ถูกแฮ็คผู้ใช้กระแทกที่ข้อบกพร่องของระบบเพื่อดูว่ามันจะพังหรือไม่

มันจะไปพร้อมกับผลิตภัณฑ์ของมนุษย์ใด ๆ A.I. ระบบยังผิดพลาดได้และในกรณีนี้ Tay ถูกสร้างแบบจำลองเพื่อเรียนรู้และโต้ตอบเช่นเดียวกับมนุษย์ Microsoft ไม่ได้สร้าง Tay ให้เป็นที่น่ารังเกียจ การทดลองปัญญาประดิษฐ์มีความคล้ายคลึงกับการวิจัยพัฒนาเด็ก เมื่อวิศวกรสร้างระบบความรู้คอมพิวเตอร์จะไม่มีอิทธิพลจากปัจจัยภายนอกใด ๆ นอกเหนือจากปัจจัยที่วิศวกรป้อนเอง มันเป็นรูปแบบที่บริสุทธิ์ที่สุดในการวิเคราะห์วิธีการเรียนรู้ของเครื่องจักรในการพัฒนาและวิวัฒนาการเมื่อเผชิญกับปัญหา

ปรับปรุง: Microsoft ส่งข้อความนี้ถึงเราเมื่อเราถามว่าทำอะไรเพื่อแก้ไขข้อบกพร่องของ Tay:

“ AI chatbot Tay เป็นโครงการเรียนรู้เครื่องจักรที่ออกแบบมาเพื่อการมีส่วนร่วมของมนุษย์ มันเป็นการทดลองทางสังคมและวัฒนธรรมมากพอ ๆ กับเทคนิค น่าเสียดายภายใน 24 ชั่วโมงแรกของการออนไลน์เราก็ตระหนักถึงความพยายามในการประสานงานของผู้ใช้บางคนในการละเมิดทักษะการแสดงความคิดเห็นของ Tay เพื่อให้ Tay ตอบโต้ด้วยวิธีที่ไม่เหมาะสม ด้วยเหตุนี้เราจึงทำให้ Tay ออฟไลน์และกำลังทำการปรับเปลี่ยน”

c u เร็ว ๆ นี้มนุษย์ต้องการการนอนหลับตอนนี้มีการสนทนามากมายในวันนี้ขอบคุณ

- TayTweets (@TayandYou) 24 มีนาคม 2559
$config[ads_kvadrat] not found