หน้าแรก >> ข่าวทั้งหมด >> อ่านบทความ/ข่าว

เมื่อ AI อาจถูกสอนให้มี “อคติ” : ภัยที่แท้จริงสำหรับมนุษย์ ที่ไม่ต้องรอให้ถึงยุค Skynet

ในขณะที่เทคโนโลยี AI พัฒนาก้าวหน้าขึ้นทุกวัน หลายคนก็อดเป็นห่วงไม่ได้ว่าสักวันหนึ่งมันจะฉลาดล้ำหน้ามนุษย์และหันมาเป็นศัตรูกับเรา พาลให้นึกถึง Skynet และเหล่าหุ่นยนต์สังหารในหนังเรื่อง Terminator แต่จริงๆ แล้วเราอาจไม่ต้องรอให้ถึงวันนั้น เพราะในขณะที่เรากำลังใช้ชีวิตอยู่นี้ มนุษย์บางกลุ่มก็ถูก AI เล่นงานทางอ้อมไปแล้วอย่างเงียบๆ ด้วยอาวุธที่เรียกว่า “อคติ” ครับ

แล้ว AI รู้จักอคติได้อย่างไร? แน่นอนว่ามันคงเข้าใจอคติด้วยตัวเองไม่ได้อยู่แล้ว มนุษย์นี่แหละที่ “สอน” มัน

อคติเหล่านี้ ซ่อนอยู่ในชุดข้อมูลดิบที่ใช้สอน AI ให้ทำงานต่างๆ เพราะข้อมูลเหล่านั้นล้วนถูกรวบรวมมาจากสถิติของมนุษย์ที่มีรักโลภโกรธหลง ซึ่งอาจแฝงความเลือกที่รักมักที่ชังลงไปด้วยโดยไม่ได้ตั้งใจ

 

อคติใน AI อันตรายแค่ไหน?

หลายคนอาจจะมองว่าเป็นเรื่องไกลตัว เพราะปกติแล้วชีวิตประจำวันก็ไม่ได้เจอกับ AI ตัวไหนนอกจาก Siri แต่ความจริงแล้ว หลายสิ่งหลายอย่างที่เราเจอในแต่ละวันนั้นล้วนแต่ถูกควบคุมด้วยระบบ AI ไม่แบบใดก็แบบหนึ่ง ยกตัวอย่างเช่นหน้าฟีด Facebook ที่ถูกควบคุมด้วยระบบ machine learning ซึ่งเรียนรู้พฤติกรรมการใช้งานของเราอยู่ตลอดเวลา และตัดสินใจว่าเราควรจะเห็นคอนเทนต์อะไรในหน้าฟีดบ้าง ทัศนคติของเราจะค่อยๆ ถูกปรับเปลี่ยนไปตามทิศทางของคอนเทนต์ที่มันเลือกมาให้เราโดยไม่รู้ตัว ทำให้เราเห็นแต่ "สิ่งที่อยากเห็น" อยู่ด้านเดียว มากกว่าจะเห็น "ความจริง" อีกด้าน

ไม่เพียงแค่โซเชียลเน็ตเวิร์คเท่านั้น อัลกอริธึมที่แฝงด้วยความลำเอียงถูกนำมาใช้ตัดสินเรื่องสำคัญๆ ของชีวิตมนุษย์แล้วหลายต่อหลายอย่าง ในสหรัฐอเมริกา มีการใช้ซอฟต์แวร์ประเมินความเสี่ยงการก่ออาชญากรรมซ้ำของจำเลยที่เรียกว่า COMPAS ซึ่งมีการตรวจพบในภายหลังว่า ตัวซอฟต์แวร์มีอัลกอริธึมการคำนวณที่มีอคติต่อคนผิวสี โดยประเมินความเสี่ยงการก่ออาชญากรรมซ้ำของจำเลยผิวสีสูงกว่าจำเลยผิวขาวราว 2 เท่า แต่เอาเข้าจริงแล้ว ผู้ที่ถูก COMPAS ประเมินว่ามีความเสี่ยงสูง มีเพียง 20% เท่านั้นที่่ก่อเหตุซ้ำจริงๆ

นอกจากนี้ ยังมีกรณีของระบบ EVASS ที่ใช้ประเมินคุณภาพครูของโรงเรียนแห่งหนึ่งในฮุสตัน ถูกพบว่ามีอัลกอริธึมการคำนวณคะแนนที่ไม่สมเหตุสมผล และทำให้ครูหลายคนได้คะแนนประเมินต่ำกว่าที่ควร บางคนถึงขั้นถูกปลดจากวิชาชีพ จนนำไปสู่การฟ้องร้องและการตีแผ่อคติในอัลกอริธึมของมันในที่สุด

ที่น่ากลัวก็คือ เราแทบจะไม่มีทางรู้ได้เลยว่าอัลกอริธึมต่างๆ ที่เข้ามาเกี่ยวข้องกับชีวิตของเรานั้นทำงานอย่างไร เพราะผู้พัฒนามักจะไม่เปิดเผยให้ใครรู้ และผู้ใช้อย่างเราก็มักจะไม่สนใจ ขอแค่มันทำงานได้ถูกต้องตามที่กำหนดไว้เป็นใช้ได้ อคติและความลำเอียงทั้งหลายที่ซ่อนอยู่จึงถูกมองข้ามไป ไม่มีทั้งการตรวจสอบ และการแก้ไขใดๆ กลายเป็นภัยเงียบที่กำลังคุกคามมนุษย์อย่างช้าๆ โดยไม่ต้องรอให้ถึงยุคหุ่นยนต์ครองโลกด้วยซ้ำ


เราจะหยุดยั้งอคติใน AI ได้อย่างไร?

เราปล่อยให้อคติเข้าไปอยู่ใน AI ได้เพราะขาดกระบวนการตรวจสอบที่รัดกุมและโปร่งใส John Giannandrea หัวหน้าทีมพัฒนา AI ของ Google จึงได้เสนอให้มีการเปิดเผยรายละเอียดชุดข้อมูลที่ใช้สอน AI พร้อมทั้งฝึกสอนและคิดค้นเครื่องมือให้นักพัฒนาอ่อนประสบการณ์ได้ค้นหาและกำจัดอัลกอริธึมที่เป็นอคติออกไปจากชุดข้อมูลก่อนที่มันจะถูกนำไปใช้

“เป็นเรื่องสำคัญมากที่เราจะต้องมีความโปร่งใสในชุด training data ที่ใช้สอน AI และต้องตรวจหาอคติที่ซ่อนอยู่ในนั้น มิฉะนั้นเราก็กำลังสร้างระบบที่เต็มไปด้วยความคิดอคติ” Giannandrea กล่าว

 

บทสรุป 

การนำ AI มาใช้ในปัจจุบันได้รับความนิยมและขยายวงกว้างมากขึ้น ข้อดีก็คือ มันทำให้เทคโนโลยี AI เข้าถึงได้ง่ายขึ้น และพัฒนาได้เร็วขึ้น แต่ข้อเสียที่ตามมา คืออัลกอริธึมต่างๆที่ได้รับการพัฒนาให้ซับซ้อนขึ้นเรื่อยๆ จนเราไม่รู้ที่มาของผลลัพธ์หรือวิธีการคำนวณของมัน ข้อมูลดิบจำนวนมากที่เราเก็บรวบรวมมาใช้ฝึก AI อาจมีความลำเอียงอยู่ในตัวอยู่แล้ว สิ่งที่เราควรจะทำในตอนนี้ คือการยกระดับความรู้ของผู้ใช้ ให้มีความเข้าใจในการทำงานและขีดจำกัดของอัลกอริธึมนั้นๆ ด้วย หากเราปล่อยให้อคติในสมองกลงอกงาม ในอนาคตอันใกล้ เมื่อ AI เข้ามามีอิทธิพลในชีวิตมนุษย์อย่างเต็มที่ มันอาจจะอันตรายกว่ากองทัพ Terminator ก็เป็นได้

 

---------------------------------------
ที่มา : TechnologyReview (1) (2) (3) , Vamboozled , ProPublica 

บทความโดย : techmoblog.com

Update : 12/10/2017

Artificial Intelligence AI Bias





Cookie Consent

Our website uses cookies to provide your browsing experience and relavent informations.Before continuing to use our website, you agree & accept of our Cookie Policy & Privacy