A.I ของ Google เอาชนะ Facebook ในการแข่งขันเพื่อชนะที่ Ancient Game of Go

$config[ads_kvadrat] not found

à¸�ารจับà¸�ารเคลื่à¸à¸™à¹„หวผ่านหน้าà¸�ล้à¸à¸‡Mode Motion Detection www keepvid com

à¸�ารจับà¸�ารเคลื่à¸à¸™à¹„หวผ่านหน้าà¸�ล้à¸à¸‡Mode Motion Detection www keepvid com
Anonim

เล็กน้อยก่อนเที่ยงคืนของเวลาแปซิฟิกในวันอังคารที่ Mark Zuckerberg เปิดตัวการนัดหยุดงานประท้วงการแข่งขันของเขาที่ Google ด้วยการประกาศว่าเขาน่าจะรู้ว่าผิด:

“ เกมโกจีนโบราณเป็นหนึ่งในเกมสุดท้ายที่ผู้เล่นที่ดีที่สุดของมนุษย์ยังสามารถเอาชนะผู้เล่นปัญญาประดิษฐ์ที่ดีที่สุดได้”

ไม่ต้องสงสัยเลยว่า Zuckerberg รู้ว่าหลังจากนั้นประมาณสิบสองชั่วโมง Google ก็จะทำเช่นนั้น จริงๆแล้ว ปัญญาประดิษฐ์ของมันได้เอาชนะผู้เล่นของมนุษย์ไม่ใช่แค่มนุษย์คนใด แต่เป็นหนึ่งในดีที่สุดในโลก ความสำเร็จที่ยกย่องของ Google - ผลลัพธ์ที่ได้รับการตีพิมพ์ในวารสาร ธรรมชาติ ในช่วงบ่ายวันพุธ - เป็นที่นักวิจัย DeepMind ได้พัฒนา AlphaGo ซึ่งเป็นเครือข่ายประสาทเทียมซึ่งเอาชนะ Fan Hui ด้วยคะแนนห้าแมตช์ให้เป็นศูนย์

ในขณะเดียวกัน Zuckerberg เขียนในโพสต์เดียวกันเมื่อคืนวันอังคารที่ Facebook ใกล้เข้ามา:“ นักวิทยาศาสตร์พยายามสอนคอมพิวเตอร์ให้ชนะที่ Go เป็นเวลา 20 ปี เราเข้าใกล้แล้วและในหกเดือนที่ผ่านมาเราได้สร้าง A.I ซึ่งสามารถเคลื่อนที่ได้เร็วเพียง 0.1 วินาทีและยังคงดีเท่ากับระบบก่อนหน้านี้ที่ใช้เวลาหลายปีในการสร้าง”

เกม Go เป็นเกมที่เก่ากว่าเรื่องราวของพระเยซู แต่ยังคงเป็นเรื่องยากสำหรับคอมพิวเตอร์ที่จะต้องเอาชนะ อัลกอริธึมบดขยี้มนุษย์ในเกม tic-tac-toe หมากรุกและหมากฮอส แต่จำนวนการเคลื่อนไหวใน Go (มากกว่าอะตอมในเอกภพ) มีมากเกินกว่าที่คอมพิวเตอร์จะเดรัจฉานบังคับให้ไปสู่ชัยชนะ รหัสไม่สามารถไปได้ดีที่สุดของมนุษย์โกโก - จนถึงตอนนี้

นักวิทยาศาสตร์ด้านคอมพิวเตอร์ได้พิจารณาที่จะชนะเกมนี้โดยเอเอ การทดสอบกรด AlphaGoogle ของ Google ก้าวล้ำนำหน้ากว่าสิบปี ไม่เหมือนกับ Kasparov-killer Deep Deep (http://en.wikipedia.org/wiki/Deep สีน้ำเงิน (chess_computer) ซึ่งสามารถกระทืบการเคลื่อนไหวที่เป็นไปได้และเลือกสิ่งที่ดีที่สุดอัลกอริทึมของ Google เป็นระบบขั้นสูงที่รวมการทำนายการเคลื่อนไหวของฝ่ายตรงข้ามและการเรียนรู้ของเครื่องจักร

จากบล็อกอย่างเป็นทางการของ Google:

เราฝึกอบรมเครือข่ายประสาทจากการเคลื่อนไหว 30 ล้านครั้งจากเกมที่เล่นโดยผู้เชี่ยวชาญของมนุษย์จนกว่าจะสามารถทำนายการเคลื่อนไหวของมนุษย์ได้ 57 เปอร์เซ็นต์ของเวลา (บันทึกก่อนหน้านี้ก่อนที่ AlphaGo คือ 44 เปอร์เซ็นต์) แต่เป้าหมายของเราคือเอาชนะผู้เล่นที่ดีที่สุดของมนุษย์ไม่ใช่แค่เลียนแบบพวกเขา ในการทำเช่นนี้ AlphaGo เรียนรู้ที่จะค้นพบกลยุทธ์ใหม่สำหรับตัวเองโดยเล่นเกมนับพันระหว่างเครือข่ายประสาทเทียมและปรับการเชื่อมต่อโดยใช้กระบวนการทดลองและข้อผิดพลาดที่เรียกว่าการเรียนรู้การเสริมแรง แน่นอนว่าทั้งหมดนี้ต้องการพลังการประมวลผลจำนวนมากดังนั้นเราจึงใช้ประโยชน์จากแพลตฟอร์ม Google Cloud อย่างกว้างขวาง

ไปคืออะไร เป็นเกมกระดานอายุ 2,500 ปีที่แทบจะเป็นไปไม่ได้ที่จะเอาชนะด้วยการใช้ปัญญาประดิษฐ์ pic.twitter.com/UEyGIxh42I

- Google (@google) 27 มกราคม 2559

ทีนี้นี่อาจจะรู้สึกว่าเป็นเสียงอึกทึกครึกโครมมากมายซึ่งคอมพิวเตอร์สามารถแกว่งเอเอไอได้ กระเจี๊ยวยากขึ้นในเกมกระดานโบราณ แต่จบเกมคือการใช้หลักการพื้นฐานที่อยู่เบื้องหลังโปรแกรมเหล่านี้และวางรากฐานสำหรับการเรียนรู้ของเครื่องโดยทั่วไป

Zuckerberg เรียกใช้ความสามารถของ A.I ในการจัดการปัญหาสิ่งแวดล้อมและวิเคราะห์โรค ในการแถลงข่าวหัวหน้าโปรแกรมเมอร์ของ AlphaGo กล่าวว่าแอปพลิเคชั่นแรกของเทคโนโลยีใหม่ของ Google จะเป็นคำแนะนำผลิตภัณฑ์

$config[ads_kvadrat] not found