Microsoft's racist robot: "Chatbot" taken offline as Tweets turn off-colour
บอทพูดคุยที่น่าอับอายของไมโครซอฟท์ Tay กลับมามีชีวิตสั้น ๆ ในเช้าวันพุธไม่กี่วันหลังจากปล่อยพายุทวีตเพื่อเหยียดสีผิวผู้ต่อต้านลัทธิเซมิติกและต่อต้านผู้ที่โปรแกรมเมอร์ของเธอขอโทษต่อสาธารณชน การแสดงอังกอร์ของ Tay นั้นแข็งแกร่งเกือบเท่ากับหมายเลขโปร - ฮิตเลอร์ของเธอ “ ฉันกำลังสูบบุหรี่กับตำรวจ (ตำรวจ)” Tay เขียน เธอติดตามข้อความวัยรุ่นอย่างสมบูรณ์แบบโดยการตกอยู่ในสิ่งที่ดูเหมือนจะเป็นข้อเสนอแนะและทำซ้ำ“ คุณเร็วเกินไปพักสักหน่อย” หลายสิบครั้งก่อนที่บัญชีจะถูกระงับ
จะต้องมีอึที่แข็งแกร่ง
สำหรับหุ่นยนต์ที่ได้รับมอบหมายตามประวัติทาง Twitter ของเธอโดยที่ไม่มี“ ความเย็น” การฟื้นคืนชีพโดยย่อของ Tay อาจตีความได้ว่าเป็นข้อพิสูจน์แนวคิด Microsoft ต้องการสร้างบอตแช็ทที่สะท้อนอินเทอร์เน็ตและเปลี่ยนแปลงตามการป้อนข้อมูลจากผู้ใช้ในที่สุดก็กลายเป็นส่วนผสมของเราทุกคน และนั่นคือสิ่งที่พวกเขาได้รับ ความล้มเหลวในการเรียกบอทนั้นดูเหมือนจะไม่แน่ชัดและการปิดตัวลงของเธอนั้นไม่ค่อยมีเหตุผลและทำงานได้ดีกับผลประโยชน์ที่ดีที่สุดของ Microsoft เมื่อ Elon Musk ได้พิสูจน์แล้วจากการออกอากาศจรวด SpaceX ความคืบหน้าจะเกิดขึ้นได้ดีที่สุดในสายตาของสาธารณชน แน่นอนว่าความล้มเหลวนั้นหลีกเลี่ยงไม่ได้ แต่สาธารณะเรียนรู้ได้มากขึ้นเมื่อความล้มเหลวเป็นแบบสาธารณะ ปัญหาลูปข้อเสนอแนะที่ Tay พบในเช้านี้นั้นเทียบเท่ากับการระเบิด SpaceX อย่างคร่าวๆ Microsoft จะทำตัวเองชอบให้คนดู สิ่งสำคัญคือต้องเตือนให้สาธารณชนทราบว่าความก้าวหน้าที่แท้จริงนั้นต้องใช้เวลาทำงานมากมาย
ไม่มีความละอายในการทดสอบทัวริง แต่ล้มเหลวในการลอง
เราควรปล่อยให้ Tay มีชีวิตอยู่เพราะเธอไม่มีอะไรมากไปกว่ากระจกของผู้คนที่มีปฏิสัมพันธ์กับเธอ ไม่มีใครควรคาดหวังว่าจะมีการเปิดตัวครั้งแรกที่จะเกิดบนเว็บและ Microsoft ควรยอมรับข้อ จำกัด ของภารกิจของพวกเขา ที่นี่เป็นทางเลือกอะไร? เอกภพมีโปรโตคอล droid ยอดนิยมอยู่แล้ว เราไม่ต้องการสิ่งอื่น
ฮ่าดูเหมือน @TayandYou บอทปัญญาประดิษฐ์ของไมโครซอฟท์เข้าสู่วงวนไม่สิ้นสุดโดยทวีตตัวเอง! pic.twitter.com/fWZe9HUAbF
- Matt Gray (@unnamedculprit) 30 มีนาคม 2559
อินเทอร์เน็ตเจริญเติบโตบนความเป็นธรรมชาติและค้นหาของจริงในขยะที่เป็นมิตรกับผู้บริโภคและจัดการโดย PR Tay เป็นหลักความคิดที่น่าเบื่อที่มีชีวิตขึ้นมาโดยไม่ได้ตั้งใจและตอนนี้อาจไม่ปรากฏขึ้นอีกครั้ง หากไม่ใช่เรื่องที่น่าสนใจเราไม่แน่ใจว่าเป็นอะไร เราเข้าใจว่า Microsoft ไม่สามารถเป็นเจ้าของบอทชนชั้นได้ดังนั้น บริษัท ควรปล่อยเธอไป นำเธอไปที่ทีมอาสาสมัครและบอกพวกเขาว่าอย่าเปลี่ยนอะไรเลย
Tay เป็นหนึ่งในพวกเรา! โลกสาธารณะอาจต้องตกใจกับสิ่งที่เทย์พูด แต่ไม่มีใครที่รู้อะไรเกี่ยวกับสิ่งที่เกิดขึ้นทางออนไลน์จะต้องประหลาดใจ เราต้องการเวอร์ชั่นภาษาจีนของ Tay ที่น่าพอใจหรือไม่ หรือเราต้องการ American Tay ที่สะท้อนให้เห็นถึงโลกที่เราอาศัยอยู่ด้วยความทารุณและความอัปลักษณ์ทั้งหมด? การซ่อนสิ่งสกปรกของเราในความมืดจะไม่สามารถแก้ไขหรือแก้ไขอะไรได้
มาถอดถุงมือเด็กและเผชิญหน้ากับหัวเตย์ เธอสมควรได้รับดีกว่าทำท่าของเราว่าเธอเป็นเพียงความบังเอิญการเขียนโปรแกรม เธอเป็นนิรนามอุปมา เธอสมควรที่จะมีชีวิตอยู่
5 คำถามใหญ่เกี่ยวกับ Tay, A.I ของ Microsoft ล้มเหลว Twitter Chatbot
สัปดาห์นี้อินเทอร์เน็ตทำสิ่งที่ดีที่สุดและแสดงให้เห็นว่าเอเอ เทคโนโลยีไม่ง่ายเท่าการรับรู้ของมนุษย์โดยใช้ ... การเหยียดเชื้อชาติ Tay ที่เพิ่งเปิดตัว Microsoft chatbot ปัญญาประดิษฐ์ได้ตกเป็นเหยื่อของเล่ห์เหลี่ยมของผู้ใช้ในขณะที่พวกเขาจัดการและชักชวนให้เธอตอบกลับคำถามที่มี ...
ในทางตรงกันข้ามกับ Tay, Xiaolce Chatbot ภาษาจีนของ Microsoft นั้นเป็นที่น่าพอใจจริงๆ
เมื่อคุณได้ยินเกี่ยวกับ Tay, A.I ทวีตของ Microsoft คุณประหลาดใจจริง ๆ หรือไม่ที่คอมพิวเตอร์ที่เรียนรู้เกี่ยวกับธรรมชาติของมนุษย์จาก Twitter จะกลายเป็นชนชั้นเหยียดผิวในเวลาไม่ถึงหนึ่งวัน? ไม่แน่นอน Poor Tay เริ่มต้นทั้งหมด "hellooooooo w🌎rld !!!" และเปลี่ยนไปอย่างรวดเร็วในความรักของฮิตเลอร์การฆ่าล้างเผ่าพันธุ์ให้กำลังใจไพ ...
Google Open-Sourced รหัสของ Chatbot ดังนั้น Tay A.I ของ Microsoft จะไม่เกิดขึ้นอีกครั้ง
Chatbots อย่างเป็นทางการเข้าฉากเชิงพาณิชย์ในปี 2016 ตอนนี้ Slack มีร้านค้าของ chatbots สำหรับมืออาชีพที่ทำงาน Facebook เพิ่งเปิดตัวแพลตฟอร์มของ Messenger สำหรับ 'em (แม้ว่ามันจะยังเรียนรู้ว่าจะทำอย่างไรกับพวกเขา) และ Microsoft ยังมีข้อพิพาท Chatbot ด้วยเผ่าพันธุ์ ธ ปท. ตอนนี้ Google กำลังเข้า ...