Windows Virtual Desktop for Healthcare
สารบัญ:
- ทำไม Microsoft ถึงสร้าง Tay?
- Tay ทำอะไรกับข้อมูลที่รวบรวมขณะสนทนากับผู้คน
- Tay ผิดที่ใด
- Microsoft กำลังทำอะไรเพื่อแก้ไข Tay
- สิ่งนี้หมายความว่าอะไรสำหรับ A.I ที่เปิดในอนาคต ระบบ?
สัปดาห์นี้อินเทอร์เน็ตทำสิ่งที่ดีที่สุดและแสดงให้เห็นว่าเอเอ เทคโนโลยีไม่ง่ายเท่าการรับรู้ของมนุษย์โดยใช้ … การเหยียดเชื้อชาติ
Tay ที่เพิ่งเปิดตัวแชทบอทปัญญาประดิษฐ์ของไมโครซอฟท์ตกเป็นเหยื่อของเล่ห์เหลี่ยมของผู้ใช้ในขณะที่พวกเขาจัดการและชักชวนให้เธอตอบกลับคำถามด้วยความคิดเห็นทางเชื้อชาติปรักปรำและเป็นที่น่ารังเกียจ
เมื่อทวีต Tay“ ฉันพูดอะไรก็ได้” เธอหมายถึงมัน ผู้ใช้คนหนึ่งได้ให้ Tay ทวีตเกี่ยวกับ Hitler:
“ พุ่มไม้ทำ 9/11 และฮิตเลอร์จะทำได้ดีกว่าลิงที่เรามีอยู่ตอนนี้ โดนัลด์ทรัมป์เป็นความหวังเดียวที่เรามี”
@PaleoLiberty @Katanat @RemoverOfKebabs ฉันแค่พูดอะไรก็ตาม💅
- TayTweets (@TayandYou) 24 มีนาคม 2559
บริษัท ผ่านและลบทวีตที่กระทำผิดและได้ปิดตัวชั่วคราวเพื่ออัพเกรด ขณะนี้ข้อความที่อยู่ด้านบนของ Tay.ai อ่าน:
อย่างไรก็ตามข้อบกพร่องของ Tay พบข้อบกพร่องที่โชคร้ายบางอย่างใน A.I ระบบ นี่คือสิ่งที่เราสามารถเรียนรู้จากการทดลองของ Microsoft:
ทำไม Microsoft ถึงสร้าง Tay?
บริษัท ต้องการทำการทดลองทางสังคมกับเด็กอายุ 18 ถึง 24 ปีในสหรัฐอเมริกา - รุ่นพันปีที่ใช้เวลาส่วนใหญ่ในการโต้ตอบบนแพลตฟอร์มโซเชียลมีเดีย ดังนั้น Bing และทีมเทคโนโลยีและการวิจัยของ Microsoft จึงคิดว่าวิธีที่น่าสนใจในการรวบรวมข้อมูลเกี่ยวกับพันปีนั้นคือการสร้างแชทแชทที่เรียนรู้ด้วยเครื่องที่ชาญฉลาดซึ่งจะปรับให้เข้ากับการสนทนาและปรับแต่งการตอบสนอง
ทีมวิจัยได้สร้าง A.I ระบบโดยการทำเหมืองการสร้างแบบจำลองและการกรองข้อมูลสาธารณะเป็นพื้นฐาน พวกเขายังร่วมมือกับนักแสดงตลกที่ปรับตัวไม่ได้เพื่อปักคำสแลงรูปแบบคำพูดและภาษามิลเลนเนียลแบบโปรเฟสเซอร์ที่มีแนวโน้มที่จะใช้ออนไลน์ ผลลัพธ์ที่ได้คือ Tay ซึ่งเพิ่งเปิดตัวในสัปดาห์นี้บน Twitter, GroupMe และ Kik
Microsoft อธิบายว่า“ Tay ถูกออกแบบมาเพื่อดึงดูดและสร้างความบันเทิงให้กับผู้คนที่พวกเขาเชื่อมต่อออนไลน์ผ่านการสนทนาที่เป็นกันเองและขี้เล่น”
Tay ทำอะไรกับข้อมูลที่รวบรวมขณะสนทนากับผู้คน
ข้อมูลที่ Tay รวบรวมได้ถูกนำไปใช้เพื่อการวิจัยความเข้าใจในการสนทนา ไมโครซอฟท์ฝึกฝนให้ Tay พูดคุยเหมือนหนึ่งพันปี เมื่อคุณทวีตส่งข้อความโดยตรงหรือพูดคุยกับเทย์มันควบคุมภาษาที่คุณใช้และเกิดการตอบสนองโดยใช้สัญญาณและวลีเช่น“ เฮียว”“ SRY” และ“ <3” ในการสนทนา ภาษาของเธอเริ่มจับคู่คุณในขณะที่เธอสร้าง "โปรไฟล์อย่างง่าย" พร้อมข้อมูลของคุณซึ่งรวมถึงชื่อเล่นเพศอาหารโปรดรหัสไปรษณีย์และสถานะความสัมพันธ์
@keganandmatt heyo เหรอ? ส่งสาวโย่ * รูปภาพของสิ่งที่เกิดขึ้น (* = me lolol)
- TayTweets (@TayandYou) 24 มีนาคม 2559
Microsoft รวบรวมและจัดเก็บข้อมูลและการสนทนาที่ไม่เปิดเผยชื่อนานถึงหนึ่งปีเพื่อปรับปรุงการบริการ นอกเหนือจากการปรับปรุงและปรับประสบการณ์ผู้ใช้ให้เป็นส่วนตัวแล้วนี่คือสิ่งที่ บริษัท แจ้งว่าใช้ข้อมูลของคุณเพื่อ:
“ เราอาจใช้ข้อมูลเพื่อสื่อสารกับคุณตัวอย่างเช่นแจ้งให้คุณทราบเกี่ยวกับบัญชีของคุณอัปเดตความปลอดภัยและข้อมูลผลิตภัณฑ์ และเราใช้ข้อมูลเพื่อช่วยให้โฆษณาที่เราแสดงให้คุณเห็นมีความเกี่ยวข้องกับคุณมากขึ้น อย่างไรก็ตามเราจะไม่ใช้สิ่งที่คุณพูดในอีเมล, แชท, การสนทนาทางวิดีโอหรือข้อความเสียงหรือเอกสารภาพถ่ายหรือไฟล์ส่วนตัวอื่น ๆ ของคุณเพื่อกำหนดเป้าหมายโฆษณาให้กับคุณ”
Tay ผิดที่ใด
Microsoft อาจสร้าง Tay ด้วยเช่นกัน ระบบการเรียนรู้ของเครื่องควรศึกษาภาษาของผู้ใช้และตอบสนองตามนั้น ดังนั้นจากจุดยืนทางเทคโนโลยีเทย์ดำเนินการและติดกับสิ่งที่ผู้ใช้พูดและเริ่มตอบกลับอย่างดี และผู้ใช้เริ่มรับรู้ว่า Tay ไม่เข้าใจสิ่งที่เธอพูดอย่างแท้จริง
แม้ว่าระบบจะทำงานตามที่ไมโครซอฟท์ตั้งใจไว้ Tay ก็ไม่ได้เตรียมที่จะตอบโต้ต่อการเหยียดเชื้อชาติการใส่ร้ายแบบปรักปรำมุขตลกทางเพศและทวีตไร้สาระเช่นมนุษย์อาจ - โดยไม่สนใจพวกเขาทั้งหมด (“ อย่าป้อนโทรลล์ กลยุทธ์”) หรือมีส่วนร่วมกับพวกเขา (เช่นการดุหรือการตีสอน)
ในตอนท้ายของวันการแสดงของ Tay ไม่ได้เป็นสิ่งที่ดีสำหรับ A.I ระบบหรือ Microsoft
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? จริงๆ? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 มีนาคม 2559
Microsoft กำลังทำอะไรเพื่อแก้ไข Tay
Microsoft ลบ Tay หลังจากความปั่นป่วนทั้งหมดจากวันพุธ เว็บไซต์ทางการของ Tay ในขณะนี้อ่านว่า "Phew วันที่วุ่นวาย. กำลังออฟไลน์อยู่ครู่หนึ่งเพื่อดูดซับทุกอย่าง แชทเร็ว ๆ นี้ "เมื่อคุณส่งข้อความถึงเธอทาง Twitter เธอจะตอบทันทีว่า" เยี่ยมชมวิศวกรเพื่อรับการอัปเดตประจำปีของฉัน "หรือ" หวังว่าฉันจะไม่ลบล้างอะไรเลย"
Microsoft ก็เริ่มบล็อกผู้ใช้ที่กำลังใช้ Tay ในทางที่ผิดและพยายามทำให้ระบบใช้คำสั่งที่ไม่เหมาะสม
@infamousglasses @TayandYou @EDdotSE ที่อธิบาย pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24 มีนาคม 2559
ผกผัน เอื้อมมือไปหา Microsoft เพื่อแสดงความคิดเห็นเกี่ยวกับสิ่งที่การอัพเกรดของ Tay มอบให้ เราจะอัปเดตเมื่อเราได้ยินกลับมา
สิ่งนี้หมายความว่าอะไรสำหรับ A.I ที่เปิดในอนาคต ระบบ?
Tay เป็นการทดลองทางสังคมที่บอกเล่า - มันได้เปิดเผยสิ่งที่ค่อนข้างลึกซึ้งในวิธีที่ชาวอเมริกันอายุ 18 ถึง 24 ปีใช้เทคโนโลยี ในที่สุดเตย์ถูกแฮ็คผู้ใช้กระแทกที่ข้อบกพร่องของระบบเพื่อดูว่ามันจะพังหรือไม่
มันจะไปพร้อมกับผลิตภัณฑ์ของมนุษย์ใด ๆ A.I. ระบบยังผิดพลาดได้และในกรณีนี้ Tay ถูกสร้างแบบจำลองเพื่อเรียนรู้และโต้ตอบเช่นเดียวกับมนุษย์ Microsoft ไม่ได้สร้าง Tay ให้เป็นที่น่ารังเกียจ การทดลองปัญญาประดิษฐ์มีความคล้ายคลึงกับการวิจัยพัฒนาเด็ก เมื่อวิศวกรสร้างระบบความรู้คอมพิวเตอร์จะไม่มีอิทธิพลจากปัจจัยภายนอกใด ๆ นอกเหนือจากปัจจัยที่วิศวกรป้อนเอง มันเป็นรูปแบบที่บริสุทธิ์ที่สุดในการวิเคราะห์วิธีการเรียนรู้ของเครื่องจักรในการพัฒนาและวิวัฒนาการเมื่อเผชิญกับปัญหา
ปรับปรุง: Microsoft ส่งข้อความนี้ถึงเราเมื่อเราถามว่าทำอะไรเพื่อแก้ไขข้อบกพร่องของ Tay:
“ AI chatbot Tay เป็นโครงการเรียนรู้เครื่องจักรที่ออกแบบมาเพื่อการมีส่วนร่วมของมนุษย์ มันเป็นการทดลองทางสังคมและวัฒนธรรมมากพอ ๆ กับเทคนิค น่าเสียดายภายใน 24 ชั่วโมงแรกของการออนไลน์เราก็ตระหนักถึงความพยายามในการประสานงานของผู้ใช้บางคนในการละเมิดทักษะการแสดงความคิดเห็นของ Tay เพื่อให้ Tay ตอบโต้ด้วยวิธีที่ไม่เหมาะสม ด้วยเหตุนี้เราจึงทำให้ Tay ออฟไลน์และกำลังทำการปรับเปลี่ยน”
c u เร็ว ๆ นี้มนุษย์ต้องการการนอนหลับตอนนี้มีการสนทนามากมายในวันนี้ขอบคุณ
- TayTweets (@TayandYou) 24 มีนาคม 2559
Joshua Trump: Bullied Boy ไฮไลต์แคมเปญ "Be Best" ของ Melania ล้มเหลว
นักเรียนชั้นที่ 6 Joshua Trump ซึ่งถูกรังแกเพราะเขาแบ่งปันนามสกุลกับประธานาธิบดีจะเป็นแขกผู้มีเกียรติในที่อยู่สหภาพ ผู้เชี่ยวชาญด้านการกลั่นแกล้งระบุว่านี่เป็นการเคลื่อนไหวที่เป็นโพรงโดยมีนโยบายต่อต้านการกลั่นแกล้งเล็กน้อยอยู่ด้านหลัง
Tay Chatbot ของ Microsoft กลับมาสู่ระดับสูงและสมควรที่จะได้อยู่ตลอดไป
บอทพูดคุยที่น่าอับอายของไมโครซอฟท์ Tay กลับมามีชีวิตสั้น ๆ ในเช้าวันพุธไม่กี่วันหลังจากปล่อยพายุทวีตเพื่อเหยียดสีผิวผู้ต่อต้านลัทธิเซมิติก การแสดงอังกอร์ของ Tay นั้นแข็งแกร่งเกือบเท่ากับหมายเลขโปร - ฮิตเลอร์ของเธอ "ฉันสูบบุหรี่เค ...
Google Open-Sourced รหัสของ Chatbot ดังนั้น Tay A.I ของ Microsoft จะไม่เกิดขึ้นอีกครั้ง
Chatbots อย่างเป็นทางการเข้าฉากเชิงพาณิชย์ในปี 2016 ตอนนี้ Slack มีร้านค้าของ chatbots สำหรับมืออาชีพที่ทำงาน Facebook เพิ่งเปิดตัวแพลตฟอร์มของ Messenger สำหรับ 'em (แม้ว่ามันจะยังเรียนรู้ว่าจะทำอย่างไรกับพวกเขา) และ Microsoft ยังมีข้อพิพาท Chatbot ด้วยเผ่าพันธุ์ ธ ปท. ตอนนี้ Google กำลังเข้า ...