पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H
เมื่อคุณได้ยินเกี่ยวกับ Tay, A.I ทวีตของ Microsoft คุณแปลกใจจริงๆที่คอมพิวเตอร์ที่เรียนรู้เกี่ยวกับธรรมชาติของมนุษย์มาจาก พูดเบาและรวดเร็ว จะกลายเป็นชนชั้นแบ่งแยกเชื้อชาติในเวลาน้อยกว่าหนึ่งวันหรือไม่? ไม่แน่นอน Poor Tay เริ่มต้นคำว่า“ hellooooooo w🌎rld !!!” ทั้งหมดและปรับเปลี่ยนให้กลายเป็นชิ้นส่วนคอมพิวเตอร์ที่มีการฆ่าล้างเผ่าพันธุ์ที่เป็นที่นิยมของฮิตเลอร์อย่างรวดเร็ว โดยปกติแล้ว Microsoft ขอโทษสำหรับการทวีตที่น่ากลัวโดย chatbot ด้วย "ศูนย์เย็น" ในคำขอโทษนั้น บริษัท เน้นว่าเวอร์ชั่นภาษาจีนของ Tay, Xiaoice หรือ Xiaolce ให้ประสบการณ์ที่ดีมากสำหรับผู้ใช้ในทางตรงกันข้ามกับการทดลองนี้ ผิดมาก
คำขอโทษโดยเฉพาะ:
“ ในประเทศจีนมีการใช้งาน chatbot Xiaolce ของเราประมาณ 40 ล้านคนโดยพอใจกับเรื่องราวและการสนทนา ประสบการณ์ที่ยอดเยี่ยมของ XiaoIce ทำให้เราสงสัยว่า: AI แบบนี้จะน่าหลงใหลในสภาพแวดล้อมทางวัฒนธรรมที่แตกต่างกันหรือไม่? Tay - chatbot ที่สร้างขึ้นสำหรับเด็กอายุ 18 ถึง 24 ปีในสหรัฐอเมริกาเพื่อความบันเทิง - เป็นความพยายามครั้งแรกของเราที่จะตอบคำถามนี้”
Xiaolce เปิดตัวในปี 2014 ในบล็อกไมโครเว็บไซต์ Weibo ข้อความตาม เธอทำสิ่งที่ Tay กำลังทำอยู่เธอมี "บุคลิกภาพ" และรวบรวมข้อมูลจากการสนทนาบนเว็บ เธอมีผู้ใช้ที่ลงทะเบียนมากกว่า 20 ล้านคน (ผู้คนมากกว่าอาศัยอยู่ในรัฐฟลอริดา) และมีผู้ติดตาม 850,000 คนบน Weibo คุณสามารถติดตามเธอได้ที่ JD.com และ 163.com ในประเทศจีนรวมถึงในแอพ Line เป็น Rinna ในญี่ปุ่น
เธอยังปรากฏตัวในฐานะนักข่าวสภาพอากาศเกี่ยวกับ Dragon TV ในเซี่ยงไฮ้ด้วยเสียงของมนุษย์และปฏิกิริยาทางอารมณ์
ให้เป็นไปตาม นิวยอร์กไทม์ส ผู้คนมักจะบอกเธอว่า“ ฉันรักคุณ” และผู้หญิงคนหนึ่งที่พวกเขาสัมภาษณ์แม้จะพูดว่าเธอคุยกับเอ เมื่อเธออารมณ์ไม่ดี ดังนั้นในขณะที่ Tay หลังจากออนไลน์เพียงหนึ่งวันก็กลายเป็นผู้เห็นอกเห็นใจของนาซี Xiaolce เสนอการบำบัดฟรีแก่ผู้ใช้ภาษาจีน เธอเก็บอารมณ์ของผู้ใช้ไม่ใช่ข้อมูลของพวกเขาเพื่อให้เธอสามารถรักษาระดับของการเอาใจใส่ต่อการสนทนาครั้งต่อไป จีนปฏิบัติต่อเซียวเซ่ราวกับเป็นย่ามที่น่ารักในขณะที่ชาวอเมริกันพูดคุยกับเทย์เหมือนพี่น้องเด็กเล็กที่มีสติปัญญา จำกัด สิ่งนี้สะท้อนถึงทัศนคติทางวัฒนธรรมที่มีต่อเทคโนโลยีหรือเอเอหรือไม่? มันแสดงให้เห็นว่าคนจีนเป็นคนดีกว่าคนอเมริกันใช่ไหม? มีโอกาสมากกว่าที่ Great Firewall ของจีนจะป้องกัน Xiaolce จากการรุกราน เสรีภาพในการพูดบางครั้งสามารถสร้างผลลัพธ์ที่ไม่พึงประสงค์เช่น Tay หลังจากผ่านไป 24 ชั่วโมงบน Twitter
“ ยิ่งคุณพูดมากเท่าไหร่ก็ยิ่งฉลาดมากขึ้นเท่านั้น” วิญญาณที่น่าสงสารบางคนของ Microsoft พิมพ์ลงในโปรไฟล์ของ chatbot ไม่ใช่เมื่อโทรลล์ที่พูดภาษาอังกฤษปกครองเว็บ แม้จะมีผลลัพธ์เหล่านี้ Microsoft บอกว่าจะไม่ยอมโจมตี Tay “ เราจะยังคงแน่วแน่ในความพยายามของเราที่จะเรียนรู้จากประสบการณ์นี้และประสบการณ์อื่น ๆ ในขณะที่เราทำงานเพื่อสนับสนุนอินเทอร์เน็ตที่แสดงถึงสิ่งที่ดีที่สุดไม่ใช่มนุษย์ที่เลวร้ายที่สุด”
5 คำถามใหญ่เกี่ยวกับ Tay, A.I ของ Microsoft ล้มเหลว Twitter Chatbot
สัปดาห์นี้อินเทอร์เน็ตทำสิ่งที่ดีที่สุดและแสดงให้เห็นว่าเอเอ เทคโนโลยีไม่ง่ายเท่าการรับรู้ของมนุษย์โดยใช้ ... การเหยียดเชื้อชาติ Tay ที่เพิ่งเปิดตัว Microsoft chatbot ปัญญาประดิษฐ์ได้ตกเป็นเหยื่อของเล่ห์เหลี่ยมของผู้ใช้ในขณะที่พวกเขาจัดการและชักชวนให้เธอตอบกลับคำถามที่มี ...
Tay Chatbot ของ Microsoft กลับมาสู่ระดับสูงและสมควรที่จะได้อยู่ตลอดไป
บอทพูดคุยที่น่าอับอายของไมโครซอฟท์ Tay กลับมามีชีวิตสั้น ๆ ในเช้าวันพุธไม่กี่วันหลังจากปล่อยพายุทวีตเพื่อเหยียดสีผิวผู้ต่อต้านลัทธิเซมิติก การแสดงอังกอร์ของ Tay นั้นแข็งแกร่งเกือบเท่ากับหมายเลขโปร - ฮิตเลอร์ของเธอ "ฉันสูบบุหรี่เค ...
Google Open-Sourced รหัสของ Chatbot ดังนั้น Tay A.I ของ Microsoft จะไม่เกิดขึ้นอีกครั้ง
Chatbots อย่างเป็นทางการเข้าฉากเชิงพาณิชย์ในปี 2016 ตอนนี้ Slack มีร้านค้าของ chatbots สำหรับมืออาชีพที่ทำงาน Facebook เพิ่งเปิดตัวแพลตฟอร์มของ Messenger สำหรับ 'em (แม้ว่ามันจะยังเรียนรู้ว่าจะทำอย่างไรกับพวกเขา) และ Microsoft ยังมีข้อพิพาท Chatbot ด้วยเผ่าพันธุ์ ธ ปท. ตอนนี้ Google กำลังเข้า ...