เกี่ยวกับอคติปัญญาประดิษฐ์

เกี่ยวกับอคติปัญญาประดิษฐ์

TL; DR:

  • แมชชีนเลิร์นนิงมองหารูปแบบในข้อมูล แต่ปัญญาประดิษฐ์สามารถ "ลำเอียง" ได้ กล่าวคือ ค้นหารูปแบบที่ไม่ถูกต้อง ตัวอย่างเช่น ระบบตรวจจับมะเร็งผิวหนังด้วยภาพถ่ายอาจให้ความสนใจเป็นพิเศษกับภาพที่ถ่ายในห้องทำงานของแพทย์ แมชชีนเลิร์นนิงทำไม่ได้ เข้าใจ: อัลกอริธึมจะระบุรูปแบบเป็นตัวเลขเท่านั้น และหากข้อมูลไม่ได้เป็นตัวแทน ผลลัพธ์ของการประมวลผลก็จะเป็นเช่นนั้น และการจับจุดบกพร่องดังกล่าวอาจเป็นเรื่องยากเนื่องจากกลไกการเรียนรู้ของเครื่องจักรนั่นเอง
  • ปัญหาที่ชัดเจนและน่ากลัวที่สุดคือความหลากหลายของมนุษย์ มีสาเหตุหลายประการที่ทำให้ข้อมูลเกี่ยวกับบุคคลอาจสูญเสียความเป็นกลางแม้ในขั้นตอนการเก็บรวบรวม แต่อย่าคิดว่าปัญหานี้ส่งผลกระทบต่อผู้คนเท่านั้น ปัญหาเดียวกันนี้เกิดขึ้นเมื่อพยายามตรวจจับน้ำท่วมในคลังสินค้าหรือเครื่องกังหันก๊าซที่ล้มเหลว ระบบบางระบบอาจมีอคติต่อสีผิว ส่วนบางระบบอาจมีอคติต่อเซ็นเซอร์ของ Siemens
  • ปัญหาดังกล่าวไม่ใช่เรื่องใหม่สำหรับแมชชีนเลิร์นนิง และยังห่างไกลจากปัญหาดังกล่าวอีกด้วย มีการสันนิษฐานที่ผิดในโครงสร้างที่ซับซ้อน และการทำความเข้าใจว่าทำไมการตัดสินใจครั้งใดครั้งหนึ่งจึงเป็นเรื่องยากเสมอไป เราจำเป็นต้องต่อสู้กับสิ่งนี้ด้วยวิธีที่ครอบคลุม: สร้างเครื่องมือและกระบวนการสำหรับการตรวจสอบ - และให้ความรู้แก่ผู้ใช้เพื่อไม่ให้พวกเขาทำตามคำแนะนำของ AI อย่างสุ่มสี่สุ่มห้า แมชชีนเลิร์นนิงทำบางสิ่งได้ดีกว่าที่เราสามารถทำได้มาก ตัวอย่างเช่น สุนัข มีประสิทธิภาพมากกว่ามนุษย์ในการตรวจจับยาเสพติด ซึ่งไม่ใช่เหตุผลที่จะใช้พวกมันเป็นพยานและตัดสินตามคำให้การของพวกเขา อย่างไรก็ตาม สุนัขก็ฉลาดกว่าระบบการเรียนรู้ของเครื่องใดๆ มาก

การเรียนรู้ของเครื่องถือเป็นหนึ่งในแนวโน้มเทคโนโลยีพื้นฐานที่สำคัญที่สุดในปัจจุบัน นี่เป็นหนึ่งในวิธีสำคัญที่เทคโนโลยีจะเปลี่ยนโลกรอบตัวเราในทศวรรษหน้า การเปลี่ยนแปลงบางประการเหล่านี้ทำให้เกิดความกังวล ตัวอย่างเช่น ผลกระทบที่อาจเกิดขึ้นจากการเรียนรู้ของเครื่องในตลาดแรงงาน หรือการนำไปใช้เพื่อวัตถุประสงค์ที่ผิดจรรยาบรรณ (เช่น โดยระบอบเผด็จการ) มีปัญหาอื่นที่โพสต์นี้กล่าวถึง: อคติปัญญาประดิษฐ์.

นี่ไม่ใช่เรื่องง่าย

เกี่ยวกับอคติปัญญาประดิษฐ์
AI ของ Google สามารถค้นหาแมวได้ ข่าวนี้จากปี 2012 ถือเป็นเรื่องพิเศษในตอนนั้น

“AI อคติ” คืออะไร?

“ข้อมูลดิบ” เป็นทั้งความเห็นผิดและเป็นความคิดที่ไม่ดี ต้องเตรียมข้อมูลอย่างดีและรอบคอบ —เจฟฟรีย์ บ็อกเกอร์

ก่อนปี 2013 เพื่อสร้างระบบที่จำแมวได้ในรูปถ่าย คุณต้องอธิบายขั้นตอนเชิงตรรกะ วิธีค้นหามุมในภาพ จดจำดวงตา วิเคราะห์พื้นผิวของขนสัตว์ นับอุ้งเท้า และอื่นๆ จากนั้นนำส่วนประกอบทั้งหมดมารวมกันแล้วพบว่ามันไม่ได้ผลจริงๆ เช่นเดียวกับม้ากล - ในทางทฤษฎีมันสามารถสร้างได้ แต่ในทางปฏิบัติมันซับซ้อนเกินกว่าจะอธิบายได้ ผลลัพธ์ที่ได้คือกฎที่เขียนด้วยลายมือนับร้อย (หรือหลายพัน) และไม่ใช่รูปแบบการทำงานเดียว

ด้วยการมาถึงของการเรียนรู้ของเครื่อง เราจึงหยุดใช้กฎ "แบบแมนนวล" ในการจดจำวัตถุใดวัตถุหนึ่ง แต่เรานำตัวอย่าง "นี้", X หนึ่งพันตัวอย่าง, "อื่น ๆ ", Y หนึ่งพันตัวอย่าง และให้คอมพิวเตอร์สร้างแบบจำลองตามการวิเคราะห์ทางสถิติ จากนั้นเราจะให้ข้อมูลตัวอย่างแก่โมเดลนี้ และจะตัดสินด้วยความแม่นยำว่าเหมาะกับชุดใดชุดหนึ่งหรือไม่ การเรียนรู้ของเครื่องสร้างแบบจำลองจากข้อมูลมากกว่าจากการเขียนโดยมนุษย์ ผลลัพธ์ที่ได้นั้นน่าประทับใจ โดยเฉพาะอย่างยิ่งในด้านของการจดจำรูปภาพและรูปแบบ และนั่นคือเหตุผลว่าทำไมอุตสาหกรรมเทคโนโลยีทั้งหมดจึงหันมาใช้การเรียนรู้ของเครื่อง (ML)

แต่มันไม่ง่ายขนาดนั้น ในโลกแห่งความเป็นจริง ตัวอย่าง X หรือ Y นับพันของคุณประกอบด้วย A, B, J, L, O, R และแม้แต่ L สิ่งเหล่านี้อาจไม่กระจายเท่ากัน และบางส่วนอาจเกิดขึ้นบ่อยมากจนระบบจะจ่ายเงินมากขึ้น ให้ความสนใจกับพวกเขามากกว่าวัตถุที่คุณสนใจ

สิ่งนี้หมายความว่าอย่างไรในทางปฏิบัติ? ตัวอย่างที่ฉันชอบคือเมื่อระบบจดจำภาพ มองดูเนินหญ้าแล้วพูดว่า "แกะ". เป็นที่ชัดเจนว่าทำไม: ภาพถ่ายตัวอย่างส่วนใหญ่ของ "แกะ" ถ่ายในทุ่งหญ้าที่พวกมันอาศัยอยู่ และในภาพเหล่านี้ หญ้าใช้พื้นที่มากกว่าขนปุยสีขาวเล็กๆ มาก และเป็นหญ้าที่ระบบพิจารณาว่าสำคัญที่สุด .

มีตัวอย่างที่จริงจังมากกว่านี้ อันหนึ่งล่าสุด โครงการ เพื่อตรวจหามะเร็งผิวหนังในภาพถ่าย ปรากฎว่าแพทย์ผิวหนังมักถ่ายภาพไม้บรรทัดพร้อมกับอาการของมะเร็งผิวหนังเพื่อบันทึกขนาดของการก่อตัว ภาพถ่ายตัวอย่างของผิวที่มีสุขภาพดีไม่มีกฎเกณฑ์ใดๆ สำหรับระบบ AI ไม้บรรทัดดังกล่าว (หรือแม่นยำยิ่งขึ้นคือพิกเซลที่เรากำหนดว่าเป็น "ไม้บรรทัด") ได้กลายเป็นหนึ่งในความแตกต่างระหว่างชุดตัวอย่าง และบางครั้งก็สำคัญกว่าผื่นเล็กๆ บนผิวหนัง ดังนั้นระบบที่สร้างขึ้นเพื่อระบุมะเร็งผิวหนังบางครั้งจึงได้รับการยอมรับจากผู้ปกครองแทน

ประเด็นสำคัญที่นี่คือระบบไม่มีความเข้าใจเชิงความหมายของสิ่งที่กำลังดูอยู่ เราดูที่ชุดพิกเซลแล้วเห็นแกะ หนัง หรือไม้บรรทัด แต่ระบบเป็นเพียงเส้นจำนวนเท่านั้น เธอไม่เห็นพื้นที่สามมิติ ไม่เห็นวัตถุ พื้นผิว หรือแกะ เธอเพียงแต่เห็นรูปแบบในข้อมูล

ความยากในการวินิจฉัยปัญหาดังกล่าวคือโครงข่ายประสาทเทียม (แบบจำลองที่สร้างโดยระบบการเรียนรู้ของเครื่องของคุณ) ประกอบด้วยโหนดนับพันแสนโหนด ไม่มีวิธีง่ายๆ ในการดูแบบจำลองและดูว่าแบบจำลองนั้นตัดสินใจอย่างไร การมีวิธีดังกล่าวหมายความว่ากระบวนการนั้นง่ายพอที่จะอธิบายกฎทั้งหมดด้วยตนเอง โดยไม่ต้องใช้การเรียนรู้ของเครื่อง ผู้คนกังวลว่าแมชชีนเลิร์นนิงกลายเป็นกล่องดำไปแล้ว (ฉันจะอธิบายในภายหลังว่าทำไมการเปรียบเทียบนี้ถึงยังมากเกินไป)

โดยทั่วไปแล้ว นี่คือปัญหาของอคติในปัญญาประดิษฐ์หรือการเรียนรู้ของเครื่องจักร ระบบในการค้นหารูปแบบในข้อมูลอาจพบรูปแบบที่ไม่ถูกต้อง และคุณอาจไม่สังเกตเห็น นี่เป็นลักษณะพื้นฐานของเทคโนโลยี และเป็นที่ประจักษ์ชัดสำหรับทุกคนที่ทำงานกับเทคโนโลยีนี้ในสถาบันการศึกษาและในบริษัทเทคโนโลยีขนาดใหญ่ แต่ผลที่ตามมานั้นซับซ้อน และวิธีการแก้ไขที่เป็นไปได้สำหรับผลที่ตามมาเหล่านั้นก็เช่นกัน

เรามาพูดถึงผลที่ตามมาก่อน

เกี่ยวกับอคติปัญญาประดิษฐ์
สำหรับเราแล้ว AI สามารถตัดสินใจเลือกคนบางประเภทโดยอิงจากสัญญาณที่มองไม่เห็นจำนวนมาก

สถานการณ์อคติของ AI

เห็นได้ชัดและน่ากลัวที่สุดคือปัญหานี้สามารถแสดงออกได้เมื่อพูดถึงความหลากหลายของมนุษย์ ล่าสุด มีข่าวลือที่ Amazon พยายามสร้างระบบ Machine Learning สำหรับการคัดกรองผู้สมัครงานเบื้องต้น เนื่องจากมีผู้ชายมากกว่าในกลุ่มพนักงานของ Amazon ตัวอย่างของ “การจ้างงานที่ประสบความสำเร็จ” จึงมักเป็นผู้ชายมากกว่า และก็มีผู้ชายมากกว่าในการเลือกเรซูเม่ที่ระบบแนะนำ Amazon สังเกตเห็นสิ่งนี้และไม่ได้เผยแพร่ระบบสู่การใช้งานจริง

สิ่งที่สำคัญที่สุดในตัวอย่างนี้ก็คือ มีข่าวลือว่าระบบสนับสนุนผู้สมัครที่เป็นผู้ชาย แม้ว่าจะไม่ได้ระบุเพศไว้ในเรซูเม่ก็ตาม ระบบมองเห็นรูปแบบอื่นๆ ในตัวอย่างของ "การจ้างงานที่ดี" เช่น ผู้หญิงอาจใช้คำพิเศษเพื่ออธิบายความสำเร็จ หรือมีงานอดิเรกพิเศษ แน่นอนว่าระบบไม่ทราบว่า "ฮ็อกกี้" คืออะไรหรือ "ผู้คน" คือใครหรือ "ความสำเร็จ" คืออะไร - เพียงทำการวิเคราะห์ข้อความทางสถิติเท่านั้น แต่รูปแบบที่เธอเห็นมักจะไม่มีใครสังเกตเห็นโดยมนุษย์ และบางส่วน (เช่น การที่ผู้คนต่างเพศบรรยายความสำเร็จต่างกัน) อาจเป็นเรื่องยากสำหรับเราที่จะมองเห็นแม้ว่าเราจะมองพวกเขาก็ตาม

ต่อไป - แย่กว่านั้น ระบบการเรียนรู้ของเครื่องที่สามารถค้นหามะเร็งบนผิวสีซีดได้ดีมากอาจทำงานได้ไม่ดีบนผิวสีเข้มหรือในทางกลับกัน ไม่ใช่เพราะอคติ แต่เป็นเพราะคุณอาจต้องสร้างแบบจำลองแยกต่างหากสำหรับสีผิวที่ต่างกัน โดยเลือกลักษณะที่แตกต่างกัน ระบบการเรียนรู้ของเครื่องไม่สามารถใช้แทนกันได้แม้ในพื้นที่แคบเช่นการจดจำรูปภาพ คุณต้องปรับแต่งระบบ บางครั้งเพียงผ่านการลองผิดลองถูก เพื่อให้ได้การจัดการที่ดีกับฟีเจอร์ต่างๆ ในข้อมูลที่คุณสนใจ จนกว่าคุณจะได้ความแม่นยำตามที่คุณต้องการ แต่สิ่งที่คุณอาจไม่สังเกตก็คือระบบมีความแม่นยำ 98% ของกลุ่มหนึ่ง และเพียง 91% เท่านั้น (แม่นยำกว่าการวิเคราะห์โดยมนุษย์ด้วยซ้ำ) ในกลุ่มอื่น ๆ

จนถึงตอนนี้ฉันใช้ตัวอย่างที่เกี่ยวข้องกับผู้คนและคุณลักษณะของพวกเขาเป็นหลัก การอภิปรายเกี่ยวกับปัญหานี้มุ่งเน้นไปที่หัวข้อนี้เป็นหลัก แต่สิ่งสำคัญคือต้องเข้าใจว่าอคติต่อผู้คนเป็นเพียงส่วนหนึ่งของปัญหาเท่านั้น เราจะใช้การเรียนรู้ของเครื่องกับสิ่งต่างๆ มากมาย และข้อผิดพลาดในการสุ่มตัวอย่างจะเกี่ยวข้องกับสิ่งเหล่านั้นทั้งหมด ในทางกลับกัน หากคุณทำงานกับผู้คน อคติในข้อมูลอาจไม่เกี่ยวข้องกับพวกเขา

เพื่อทำความเข้าใจเรื่องนี้ เรากลับมาที่ตัวอย่างมะเร็งผิวหนัง และพิจารณาความเป็นไปได้ตามสมมุติฐานสามประการสำหรับความล้มเหลวของระบบ

  1. การกระจายตัวของผู้คนที่แตกต่างกัน: จำนวนภาพถ่ายที่มีสีผิวต่างกันไม่สมดุล ทำให้เกิดผลบวกลวงหรือผลลบลวงเนื่องจากผิวคล้ำ
  2. ข้อมูลที่ระบบได้รับการฝึกอบรมประกอบด้วยคุณลักษณะที่เกิดขึ้นบ่อยครั้งและกระจายต่างกันซึ่งไม่เกี่ยวข้องกับบุคคลและไม่มีค่าในการวินิจฉัย: ไม้บรรทัดในรูปถ่ายของมะเร็งผิวหนังหรือหญ้าในรูปถ่ายของแกะ ในกรณีนี้ ผลลัพธ์จะแตกต่างออกไปหากระบบพบพิกเซลในภาพของสิ่งที่ตามนุษย์ระบุว่าเป็น "ไม้บรรทัด"
  3. ข้อมูลประกอบด้วยคุณลักษณะของบุคคลที่สามซึ่งบุคคลไม่สามารถมองเห็นได้แม้ว่าเขาจะมองหาก็ตาม

มันหมายความว่าอะไร? เราทราบดีอยู่แล้วว่าข้อมูลอาจเป็นตัวแทนของกลุ่มคนที่แตกต่างกัน และอย่างน้อยที่สุด เราก็สามารถวางแผนมองหาข้อยกเว้นดังกล่าวได้ กล่าวอีกนัยหนึ่ง มีเหตุผลทางสังคมมากมายที่จะสรุปได้ว่าข้อมูลเกี่ยวกับกลุ่มบุคคลนั้นมีอคติอยู่บ้างแล้ว ถ้าเราดูรูปด้วยไม้บรรทัดก็จะเห็นไม้บรรทัดนี้ - เราก็แค่มองข้ามมันไปก่อนโดยรู้ว่ามันไม่สำคัญและลืมไปว่าระบบไม่รู้อะไรเลย

แต่จะเป็นอย่างไรหากภาพถ่ายผิวที่ไม่แข็งแรงทั้งหมดของคุณถูกถ่ายในสำนักงานภายใต้แสงไฟจากหลอดไส้ และภาพถ่ายผิวที่มีสุขภาพดีของคุณถูกถ่ายภายใต้แสงฟลูออเรสเซนต์ล่ะ? จะเป็นอย่างไรหากคุณอัปเดตระบบปฏิบัติการบนโทรศัพท์ของคุณก่อนถ่ายภาพผิวที่ไม่แข็งแรง และ Apple หรือ Google ได้เปลี่ยนอัลกอริธึมการลดเสียงรบกวนเล็กน้อยก่อนถ่ายภาพผิวที่มีสุขภาพดี บุคคลไม่สามารถสังเกตเห็นสิ่งนี้ได้ไม่ว่าเขาจะมองหาคุณสมบัติดังกล่าวมากแค่ไหนก็ตาม แต่ระบบการใช้งานเครื่องจักรจะมองเห็นและใช้งานได้ทันที เธอไม่รู้อะไรเลย

จนถึงตอนนี้ เราได้พูดถึงความสัมพันธ์ปลอมๆ แล้ว แต่อาจเป็นได้ว่าข้อมูลนั้นถูกต้องและผลลัพธ์ก็ถูกต้อง แต่คุณไม่ต้องการใช้มันเพื่อเหตุผลด้านจริยธรรม กฎหมาย หรือการจัดการ ตัวอย่างเช่น เขตอำนาจศาลบางแห่งไม่อนุญาตให้ผู้หญิงได้รับส่วนลดค่าประกัน แม้ว่าผู้หญิงจะเป็นคนขับที่ปลอดภัยกว่าก็ตาม เราสามารถจินตนาการถึงระบบที่เมื่อวิเคราะห์ข้อมูลในอดีต จะกำหนดปัจจัยเสี่ยงที่ต่ำกว่าให้กับชื่อผู้หญิงได้อย่างง่ายดาย เอาล่ะ มาลบชื่อออกจากส่วนที่เลือกกันดีกว่า แต่จำตัวอย่างของ Amazon: ระบบสามารถกำหนดเพศตามปัจจัยอื่น ๆ (แม้ว่าจะไม่รู้ว่าเพศคืออะไร หรือแม้แต่รถยนต์คืออะไร) และคุณจะไม่สังเกตเห็นสิ่งนี้จนกว่าหน่วยงานกำกับดูแลจะวิเคราะห์ภาษีย้อนหลังย้อนหลัง เสนอและเรียกเก็บเงินคุณจะถูกปรับ

ท้ายที่สุด มักสันนิษฐานว่าเราจะใช้ระบบดังกล่าวสำหรับโครงการที่เกี่ยวข้องกับผู้คนและการมีปฏิสัมพันธ์ทางสังคมเท่านั้น นี่เป็นสิ่งที่ผิด หากคุณสร้างกังหันก๊าซ คุณอาจต้องการใช้การเรียนรู้ของเครื่องจักรกับการวัดและส่งข้อมูลทางไกลที่ส่งโดยเซ็นเซอร์นับสิบหรือหลายร้อยตัวบนผลิตภัณฑ์ของคุณ (เสียง วิดีโอ อุณหภูมิ และเซ็นเซอร์อื่นๆ จะสร้างข้อมูลที่สามารถนำไปปรับใช้เพื่อสร้างเครื่องจักรได้อย่างง่ายดาย รูปแบบการเรียนรู้) ตามสมมุติฐาน คุณสามารถพูดได้ว่า "นี่คือข้อมูลจากกังหันนับพันตัวที่ล้มเหลวก่อนที่จะล้มเหลว และนี่คือข้อมูลจากกังหันนับพันตัวที่ไม่ล้มเหลว สร้างแบบจำลองเพื่อบอกว่าความแตกต่างระหว่างพวกเขาคืออะไร” ทีนี้ลองจินตนาการว่าเซ็นเซอร์ของ Siemens ได้รับการติดตั้งบนกังหันที่ไม่ดี 75% และกังหันที่ดีเพียง 12% เท่านั้น (ไม่เกี่ยวข้องกับความล้มเหลว) ระบบจะสร้างแบบจำลองเพื่อค้นหากังหันที่มีเซ็นเซอร์ของซีเมนส์ อ๊ะ!

เกี่ยวกับอคติปัญญาประดิษฐ์
รูปภาพ — มอริตซ์ ฮาร์ดต์, UC Berkeley

การจัดการอคติ AI

เราจะทำอย่างไรกับเรื่องนี้? คุณสามารถแก้ไขปัญหาได้จากสามมุม:

  1. ความเข้มงวดด้านระเบียบวิธีในการรวบรวมและจัดการข้อมูลสำหรับการฝึกอบรมระบบ
  2. เครื่องมือทางเทคนิคสำหรับการวิเคราะห์และวินิจฉัยพฤติกรรมของโมเดล
  3. ฝึกอบรม ให้ความรู้ และระมัดระวังในการใช้แมชชีนเลิร์นนิงกับผลิตภัณฑ์

มีเรื่องตลกในหนังสือของ Molière เรื่อง "The Bourgeois in the Nobility": มีชายคนหนึ่งเล่าว่าวรรณกรรมแบ่งออกเป็นร้อยแก้วและบทกวี และเขาดีใจที่พบว่าเขาพูดเป็นร้อยแก้วมาตลอดชีวิตโดยที่ไม่รู้ตัว นี่อาจเป็นความรู้สึกของนักสถิติในปัจจุบัน: พวกเขาได้อุทิศอาชีพของตนให้กับปัญญาประดิษฐ์และข้อผิดพลาดในการสุ่มตัวอย่างโดยไม่รู้ตัว การค้นหาข้อผิดพลาดในการสุ่มตัวอย่างและการกังวลเกี่ยวกับข้อผิดพลาดนั้นไม่ใช่ปัญหาใหม่ เราเพียงแต่ต้องดำเนินการแก้ไขปัญหาอย่างเป็นระบบ ตามที่กล่าวไว้ข้างต้น ในบางกรณี การทำเช่นนี้ง่ายกว่าโดยการศึกษาปัญหาที่เกี่ยวข้องกับข้อมูลบุคคล เราถือว่าเราอาจมีอคติเกี่ยวกับกลุ่มคนต่างๆ แต่เป็นเรื่องยากสำหรับเราที่จะจินตนาการถึงอคติเกี่ยวกับเซ็นเซอร์ของ Siemens

มีอะไรใหม่เกี่ยวกับเรื่องทั้งหมดนี้ แน่นอนว่า ผู้คนไม่ได้ทำการวิเคราะห์ทางสถิติโดยตรงอีกต่อไป ดำเนินการโดยเครื่องจักรที่สร้างแบบจำลองขนาดใหญ่และซับซ้อนซึ่งเข้าใจยาก ปัญหาเรื่องความโปร่งใสเป็นหนึ่งในประเด็นหลักของปัญหาอคติ เรากลัวว่าระบบไม่เพียงแต่มีอคติ แต่ยังไม่มีทางที่จะตรวจจับอคติของมันได้ และการเรียนรู้ของเครื่องจักรนั้นแตกต่างจากระบบอัตโนมัติรูปแบบอื่น ๆ ที่ควรประกอบด้วยขั้นตอนเชิงตรรกะที่ชัดเจนที่สามารถทดสอบได้

มีสองปัญหาที่นี่ เราอาจยังสามารถดำเนินการตรวจสอบระบบแมชชีนเลิร์นนิงบางประเภทได้ และการตรวจสอบระบบอื่น ๆ จริงๆ แล้วไม่ใช่เรื่องง่าย

ประการแรก ทิศทางหนึ่งของการวิจัยสมัยใหม่ในด้านการเรียนรู้ของเครื่องคือการค้นหาวิธีการระบุฟังก์ชันการทำงานที่สำคัญของระบบการเรียนรู้ของเครื่อง อย่างไรก็ตาม แมชชีนเลิร์นนิง (ในสถานะปัจจุบัน) เป็นสาขาวิทยาศาสตร์ใหม่ที่กำลังเปลี่ยนแปลงอย่างรวดเร็ว ดังนั้นอย่าคิดว่าสิ่งที่เป็นไปไม่ได้ในปัจจุบันจะไม่สามารถกลายเป็นจริงได้ในไม่ช้า โครงการ OpenAI - ตัวอย่างที่น่าสนใจของเรื่องนี้

ประการที่สอง แนวคิดที่ว่าคุณสามารถทดสอบและเข้าใจกระบวนการตัดสินใจของระบบหรือองค์กรที่มีอยู่นั้นเป็นสิ่งที่ดีในทางทฤษฎี แต่ในทางปฏิบัติก็ใช้ได้ การทำความเข้าใจการตัดสินใจในองค์กรขนาดใหญ่ไม่ใช่เรื่องง่าย แม้ว่าจะมีกระบวนการตัดสินใจอย่างเป็นทางการ แต่ก็ไม่ได้สะท้อนถึงวิธีที่ผู้คนมีปฏิสัมพันธ์กันจริงๆ และตัวพวกเขาเองก็มักจะไม่มีแนวทางที่สมเหตุสมผลและเป็นระบบในการตัดสินใจ อย่างที่เพื่อนร่วมงานของฉันพูด วิชัย ปานเด, คนก็เป็นกล่องดำเช่นกัน.

รับคนเป็นพันคนในบริษัทและสถาบันหลายแห่งที่ทับซ้อนกัน และปัญหาก็ซับซ้อนยิ่งขึ้น เรารู้หลังจากความจริงที่ว่ากระสวยอวกาศถูกกำหนดให้พังเมื่อกลับมา และบุคคลใน NASA ก็มีข้อมูลที่ทำให้พวกเขามีเหตุผลที่จะคิดว่าสิ่งเลวร้ายอาจเกิดขึ้น แต่ระบบ โดยทั่วไป ฉันไม่รู้เรื่องนี้ NASA เพิ่งผ่านการตรวจสอบที่คล้ายกันนี้หลังจากสูญเสียกระสวยอวกาศก่อนหน้านี้ไป แต่ก็สูญเสียอีกลำหนึ่งด้วยเหตุผลที่คล้ายกันมาก เป็นเรื่องง่ายที่จะโต้แย้งว่าองค์กรและผู้คนปฏิบัติตามกฎเกณฑ์ที่ชัดเจนและสมเหตุสมผล ซึ่งสามารถทดสอบ ทำความเข้าใจ และเปลี่ยนแปลงได้ แต่ประสบการณ์กลับพิสูจน์เป็นอย่างอื่น นี้ "ความเข้าใจผิดของ Gosplan'

ฉันมักจะเปรียบเทียบแมชชีนเลิร์นนิงกับฐานข้อมูล โดยเฉพาะเทคโนโลยีเชิงสัมพันธ์ ซึ่งเป็นเทคโนโลยีพื้นฐานใหม่ที่เปลี่ยนแปลงความสามารถของวิทยาการคอมพิวเตอร์และโลกรอบตัว ซึ่งกลายเป็นส่วนหนึ่งของทุกสิ่ง ซึ่งเราใช้อยู่ตลอดเวลาโดยไม่รู้ตัว ฐานข้อมูลก็มีปัญหาเช่นกัน และมีลักษณะคล้ายกัน: ระบบอาจสร้างขึ้นจากสมมติฐานที่ไม่ดีหรือข้อมูลที่ไม่ดี แต่จะสังเกตเห็นได้ยาก และผู้ที่ใช้ระบบจะทำในสิ่งที่บอกโดยไม่ต้องถามคำถาม มีเรื่องตลกเก่าๆ มากมายเกี่ยวกับผู้เสียภาษีที่เคยสะกดชื่อของคุณผิด และการโน้มน้าวให้พวกเขาแก้ไขข้อผิดพลาดนั้นยากกว่าการเปลี่ยนชื่อของคุณจริงๆ มีหลายวิธีในการคิดเกี่ยวกับเรื่องนี้ แต่ยังไม่ชัดเจนว่าวิธีใดดีกว่า: เนื่องจากปัญหาทางเทคนิคใน SQL หรือเป็นข้อบกพร่องใน Oracle release หรือเป็นความล้มเหลวของสถาบันราชการ การค้นหาจุดบกพร่องในกระบวนการที่ทำให้ระบบไม่มีคุณลักษณะการแก้ไขตัวพิมพ์นั้นยากเพียงใด สิ่งนี้สามารถเกิดขึ้นได้ก่อนที่ผู้คนจะเริ่มบ่นหรือไม่?

ปัญหานี้อธิบายได้ง่ายยิ่งขึ้นด้วยเรื่องราวเมื่อผู้ขับขี่ขับรถลงแม่น้ำเนื่องจากข้อมูลที่ล้าสมัยในเครื่องนำทาง เอาล่ะ แผนที่จำเป็นต้องได้รับการอัปเดตอย่างต่อเนื่อง แต่ TomTom จะโทษแค่ไหนสำหรับรถของคุณที่ถูกระเบิดลงทะเล?

เหตุผลที่ฉันพูดแบบนี้ก็คือ ใช่แล้ว ความลำเอียงของการเรียนรู้ของเครื่องจะสร้างปัญหาขึ้นมา แต่ปัญหาเหล่านี้จะคล้ายกับที่เราเคยเผชิญมาในอดีตและสามารถสังเกตและแก้ไข (หรือไม่) ได้เช่นเดียวกับที่เราสามารถทำได้ในอดีต ดังนั้น สถานการณ์ที่อคติของ AI ก่อให้เกิดอันตรายไม่น่าจะเกิดขึ้นกับนักวิจัยอาวุโสที่ทำงานในองค์กรขนาดใหญ่ เป็นไปได้มากว่าผู้รับเหมาเทคโนโลยีหรือผู้จำหน่ายซอฟต์แวร์ที่ไม่มีนัยสำคัญบางรายจะเขียนอะไรบางอย่างโดยใช้ส่วนประกอบโอเพ่นซอร์ส ไลบรารี และเครื่องมือที่พวกเขาไม่เข้าใจ และลูกค้าที่โชคร้ายจะซื้อวลี "ปัญญาประดิษฐ์" ในรายละเอียดสินค้าและแจกจ่ายให้กับพนักงานที่ได้รับค่าจ้างต่ำโดยไม่ต้องถามคำถามใด ๆ โดยสั่งให้พวกเขาทำตามที่ AI พูด นี่คือสิ่งที่เกิดขึ้นกับฐานข้อมูล นี่ไม่ใช่ปัญหาปัญญาประดิษฐ์ หรือแม้แต่ปัญหาซอฟต์แวร์ นี่คือปัจจัยของมนุษย์

ข้อสรุป

แมชชีนเลิร์นนิงสามารถทำทุกอย่างที่คุณสามารถสอนสุนัขได้ แต่คุณไม่มีทางแน่ใจได้เลยว่าคุณสอนสุนัขอะไรกันแน่

ฉันมักจะรู้สึกว่าคำว่า "ปัญญาประดิษฐ์" เข้ามาขัดขวางการสนทนาเช่นนี้เท่านั้น คำนี้ให้ความรู้สึกผิด ๆ ว่าเราสร้างขึ้นมาจริง ๆ - ความฉลาดนี้ ว่าเรากำลังเดินทางไป HAL9000 หรือสกายเน็ต ซึ่งเป็นอะไรบางอย่างจริงๆ เข้าใจ. แต่ไม่มี. สิ่งเหล่านี้เป็นเพียงเครื่องจักร และการเปรียบเทียบ เช่น เครื่องซักผ้า จะแม่นยำกว่ามาก เธอซักผ้าได้ดีกว่ามนุษย์มาก แต่ถ้าคุณใส่จานแทนการซักผ้า เธอก็... จะล้างมัน จานชามก็จะสะอาดขึ้นด้วย แต่นี่ไม่ใช่สิ่งที่คุณคาดหวัง และสิ่งนี้จะไม่เกิดขึ้นเนื่องจากระบบมีอคติเกี่ยวกับอาหาร เครื่องซักผ้าไม่รู้ว่าจานคืออะไรหรือเสื้อผ้าอะไร - นี่เป็นเพียงตัวอย่างของระบบอัตโนมัติซึ่งมีแนวคิดไม่แตกต่างจากกระบวนการอัตโนมัติมาก่อน

ไม่ว่าเราจะพูดถึงรถยนต์ เครื่องบิน หรือฐานข้อมูล ระบบเหล่านี้จะทั้งทรงพลังมากและมีข้อจำกัดมาก พวกเขาจะขึ้นอยู่กับวิธีที่ผู้คนใช้ระบบเหล่านี้ ความตั้งใจของพวกเขาจะดีหรือไม่ดี และพวกเขาเข้าใจวิธีการทำงานของพวกเขามากน้อยเพียงใด

ดังนั้น การจะบอกว่า “ปัญญาประดิษฐ์นั้นเป็นคณิตศาสตร์ ดังนั้นจึงไม่สามารถมีอคติได้” จึงถือเป็นเท็จโดยสิ้นเชิง แต่มันก็ผิดไม่แพ้กันที่จะบอกว่าแมชชีนเลิร์นนิงนั้นเป็น "อัตนัย" แมชชีนเลิร์นนิงค้นหารูปแบบของข้อมูล และรูปแบบที่พบนั้นขึ้นอยู่กับข้อมูล และข้อมูลก็ขึ้นอยู่กับเรา เช่นเดียวกับสิ่งที่เราทำกับพวกเขา แมชชีนเลิร์นนิงทำบางสิ่งได้ดีกว่าที่เราสามารถทำได้มาก ตัวอย่างเช่น สุนัข มีประสิทธิภาพมากกว่ามนุษย์ในการตรวจจับยาเสพติด ซึ่งไม่ใช่เหตุผลที่จะใช้พวกมันเป็นพยานและตัดสินตามคำให้การของพวกเขา อย่างไรก็ตาม สุนัขก็ฉลาดกว่าระบบการเรียนรู้ของเครื่องใดๆ มาก

แปล: ไดอาน่า เลตสกายา.
การแก้ไข: อเล็กเซย์ อิวานอฟ.
ชุมชน: @ปอนชิคนิวส์.

ที่มา: will.com

เพิ่มความคิดเห็น