วิธีการที่มีสติสัมปชัญญะกับ AI ช่วยลดชุดข้อมูลที่มีอคติ

ชุดข้อมูลลำเอียงและ AI ที่มีจริยธรรม

โซลูชันที่ขับเคลื่อนด้วย AI จำเป็นต้องมีชุดข้อมูลที่มีประสิทธิภาพ และการสร้างชุดข้อมูลเหล่านั้นเต็มไปด้วยปัญหาอคติโดยนัยในระดับที่เป็นระบบ ทุกคนต้องทนทุกข์จากอคติ (ทั้งมีสติและไม่รู้สึกตัว) อคติสามารถมีได้หลายรูปแบบ: ภูมิศาสตร์ ภาษาศาสตร์ เศรษฐกิจสังคม เพศนิยม และการแบ่งแยกเชื้อชาติ และอคติที่เป็นระบบเหล่านั้นก็ถูกรวมเข้ากับข้อมูล ซึ่งอาจส่งผลให้ผลิตภัณฑ์ AI ขยายเวลาและขยายอคติ องค์กรต้องการแนวทางที่มีสติเพื่อลดอคติที่เล็ดลอดเข้ามาในชุดข้อมูล

ตัวอย่างที่แสดงให้เห็นปัญหาอคติ

ตัวอย่างหนึ่งที่น่าสังเกตของอคติชุดข้อมูลนี้ซึ่งได้รับกระแสข่าวเชิงลบมากมายในขณะนั้นคือวิธีการอ่านประวัติย่อซึ่งชอบผู้สมัครชายมากกว่าผู้หญิง เนื่องจากชุดข้อมูลของเครื่องมือจัดหางานได้รับการพัฒนาโดยใช้ประวัติย่อในช่วงทศวรรษที่ผ่านมาซึ่งผู้สมัครส่วนใหญ่เป็นผู้ชาย ข้อมูลมีความลำเอียงและผลลัพธ์สะท้อนถึงความลำเอียงนั้น 

อีกตัวอย่างหนึ่งที่มีการรายงานอย่างกว้างขวาง: ในการประชุมนักพัฒนา Google I/O ประจำปี Google ได้แชร์ตัวอย่างเครื่องมือช่วยเหลือด้านโรคผิวหนังที่ขับเคลื่อนโดย AI ซึ่งช่วยให้ผู้คนเข้าใจว่าเกิดอะไรขึ้นกับปัญหาที่เกี่ยวข้องกับผิวหนัง ผม และเล็บ ผู้ช่วยแพทย์ผิวหนังเน้นย้ำว่า AI มีการพัฒนาเพื่อช่วยในด้านการดูแลสุขภาพอย่างไร แต่ยังเน้นย้ำถึงศักยภาพที่อคติจะเล็ดลอดเข้ามาใน AI เมื่อมีการวิพากษ์วิจารณ์ว่าเครื่องมือนี้ไม่เพียงพอสำหรับคนผิวสี

เมื่อ Google ประกาศเครื่องมือ บริษัท ตั้งข้อสังเกต:

เพื่อให้แน่ใจว่าเรากำลังสร้างมาเพื่อทุกคน โมเดลของเราพิจารณาปัจจัยต่างๆ เช่น อายุ เพศ เชื้อชาติ และประเภทผิว ตั้งแต่ผิวซีดที่ไม่เป็นสีแทนไปจนถึงผิวสีน้ำตาลที่แทบไม่ไหม้

Google ใช้ AI ช่วยหาคำตอบสภาพผิวทั่วไป

แต่บทความใน Vice กล่าวว่า Google ล้มเหลวในการใช้ชุดข้อมูลที่ครอบคลุม:

นักวิจัยได้ใช้ชุดข้อมูลการฝึกอบรม 64,837 ภาพของผู้ป่วย 12,399 รายในสองรัฐ แต่จากสภาพผิวนับพันภาพ มีเพียง 3.5% เท่านั้นที่มาจากผู้ป่วยที่มีผิว Fitzpatrick ประเภท V และ VI ซึ่งแสดงถึงผิวสีน้ำตาลและผิวสีน้ำตาลเข้มหรือสีดำตามลำดับ ผลการศึกษาพบว่า 90% ของฐานข้อมูลประกอบด้วยผู้ที่มีผิวขาว ผิวขาวเข้ม หรือผิวสีน้ำตาลอ่อน ผลจากการสุ่มตัวอย่างแบบลำเอียง แพทย์ผิวหนังกล่าวว่าแอปนี้อาจจบลงด้วยการวินิจฉัยคนที่ไม่ใช่คนผิวขาวมากหรือน้อยเกินไป

รอง แอปโรคผิวหนังใหม่ของ Google ไม่ได้ออกแบบมาสำหรับผู้ที่มีผิวคล้ำ

Google ตอบกลับโดยบอกว่าจะปรับแต่งเครื่องมือก่อนเปิดตัวอย่างเป็นทางการ:

เครื่องมือช่วยโรคผิวหนังที่ขับเคลื่อนด้วย AI ของเราเป็นผลจากการวิจัยที่ยาวนานกว่าสามปี เนื่องจากงานของเราได้รับการแนะนำใน Nature Medicine เราจึงพัฒนาและปรับแต่งเทคโนโลยีของเราอย่างต่อเนื่องด้วยการรวมชุดข้อมูลเพิ่มเติมซึ่งรวมถึงข้อมูลที่บริจาคโดยผู้คนหลายพันคน และรูปภาพเกี่ยวกับปัญหาผิวที่ได้รับการดูแลจัดการอีกหลายล้านรายการ

Google ใช้ AI ช่วยหาคำตอบสภาพผิวทั่วไป

เท่าที่เราอาจหวังว่าโปรแกรม AI และแมชชีนเลิร์นนิงจะแก้ไขอคติเหล่านี้ได้ แต่ความเป็นจริงยังคงอยู่: พวกมันเป็นเพียง สมาร์ท เนื่องจากชุดข้อมูลสะอาด ในการอัพเดทสุภาษิตการเขียนโปรแกรมเก่า ขยะเข้า / ขยะออก, โซลูชัน AI นั้นแข็งแกร่งพอๆ กับคุณภาพของชุดข้อมูลตั้งแต่เริ่มต้น หากไม่มีการแก้ไขจากโปรแกรมเมอร์ ชุดข้อมูลเหล่านี้จะไม่มีประสบการณ์ในเบื้องหลังในการแก้ไขตัวเอง เนื่องจากไม่มีกรอบอ้างอิงอื่น

การสร้างชุดข้อมูลอย่างมีความรับผิดชอบคือหัวใจของทั้งหมด ปัญญาประดิษฐ์ทางจริยธรรม. และผู้คนคือแก่นของการแก้ปัญหา 

AI ที่มีสติคือ AI ที่มีจริยธรรม

อคติไม่ได้เกิดขึ้นในสุญญากาศ ชุดข้อมูลที่ผิดจรรยาบรรณหรืออคติมาจากการใช้แนวทางที่ไม่ถูกต้องในระหว่างขั้นตอนการพัฒนา วิธีในการต่อสู้กับข้อผิดพลาดของอคติคือการใช้แนวทางที่มีความรับผิดชอบและมีมนุษย์เป็นศูนย์กลาง ซึ่งหลายคนในอุตสาหกรรมนี้เรียกว่า Mindful AI Mindful AI มีองค์ประกอบที่สำคัญสามประการ:

1. AI ที่มีสติคือมนุษย์เป็นศูนย์กลาง

ตั้งแต่เริ่มโครงการ AI ในขั้นตอนการวางแผน ความต้องการของผู้คนต้องเป็นศูนย์กลางของทุกการตัดสินใจ และนั่นหมายถึงทุกคน ไม่ใช่แค่ส่วนย่อย นั่นเป็นเหตุผลที่นักพัฒนาจำเป็นต้องพึ่งพาทีมงานที่มีความหลากหลายจากทั่วโลกในการฝึกอบรมแอปพลิเคชัน AI ให้ครอบคลุมและปราศจากอคติ

Crowdsourcing ชุดข้อมูลจากทีมระดับโลกที่มีความหลากหลายช่วยให้มั่นใจว่ามีการระบุอคติและกรองออกตั้งแต่เนิ่นๆ กลุ่มชาติพันธุ์ กลุ่มอายุ เพศ ระดับการศึกษา ภูมิหลังทางเศรษฐกิจและสังคม และสถานที่ต่างๆ สามารถระบุชุดข้อมูลที่สนับสนุนค่าชุดหนึ่งมากกว่าค่าอื่น ได้ชัดเจนยิ่งขึ้น จึงเป็นการกำจัดอคติที่ไม่ได้ตั้งใจออกไป

ดูแอพพลิเคชั่นเสียง เมื่อใช้แนวทาง AI ที่มีสติ และใช้ประโยชน์จากพลังของกลุ่มผู้มีความสามารถระดับโลก นักพัฒนาสามารถพิจารณาองค์ประกอบทางภาษา เช่น ภาษาถิ่นและสำเนียงต่างๆ ในชุดข้อมูล

การสร้างกรอบการออกแบบที่เน้นมนุษย์เป็นศูนย์กลางตั้งแต่ต้นเป็นสิ่งสำคัญ มันไปไกลเพื่อให้มั่นใจว่าข้อมูลที่สร้าง ดูแลจัดการ และติดป้ายกำกับนั้นตรงตามความคาดหวังของผู้ใช้ปลายทาง แต่สิ่งสำคัญคือต้องให้มนุษย์อยู่ในวงจรชีวิตการพัฒนาผลิตภัณฑ์ทั้งหมด 

มนุษย์ในวงสามารถช่วยให้เครื่องจักรสร้างประสบการณ์ AI ที่ดีขึ้นสำหรับผู้ชมเฉพาะแต่ละราย ที่ Pactera EDGE ทีมงานโครงการข้อมูล AI ของเราซึ่งตั้งอยู่ทั่วโลก เข้าใจว่าวัฒนธรรมและบริบทที่แตกต่างกันสามารถส่งผลกระทบต่อการรวบรวมและการจัดการข้อมูลการฝึกอบรม AI ที่เชื่อถือได้ได้อย่างไร พวกเขามีเครื่องมือที่จำเป็นในการแจ้งปัญหา ตรวจสอบ และแก้ไขก่อนที่โซลูชันที่ใช้ AI จะเผยแพร่

AI แบบมนุษย์ในวงคือโครงการ “เครือข่ายความปลอดภัย” ที่รวมจุดแข็งของผู้คน และภูมิหลังที่หลากหลายของพวกเขาเข้ากับพลังการประมวลผลที่รวดเร็วของเครื่องจักร ความร่วมมือระหว่างมนุษย์และ AI นี้จำเป็นต้องเกิดขึ้นตั้งแต่เริ่มต้นของโปรแกรม เพื่อไม่ให้ข้อมูลที่มีอคติเป็นรากฐานในโปรเจ็กต์ 

2. AI ที่มีสติคือความรับผิดชอบ

ความรับผิดชอบคือต้องตรวจสอบให้แน่ใจว่าระบบ AI ปราศจากอคติและมีพื้นฐานมาจากจริยธรรม มันเกี่ยวกับการคำนึงถึงว่าข้อมูลถูกสร้างขึ้นอย่างไร ทำไม และที่ไหน การสังเคราะห์ข้อมูลโดยระบบ AI อย่างไร และใช้ในการตัดสินใจอย่างไร การตัดสินใจที่อาจมีผลกระทบทางจริยธรรม วิธีหนึ่งสำหรับธุรกิจในการทำเช่นนั้นคือการทำงานร่วมกับชุมชนที่มีบทบาทต่ำกว่าเพื่อให้ครอบคลุมมากขึ้นและลำเอียงน้อยลง ในสาขาการทำหมายเหตุประกอบข้อมูล งานวิจัยใหม่กำลังเน้นว่าโมเดลงานหลายงานพร้อมคำอธิบายประกอบหลายตัวที่ปฏิบัติต่อป้ายกำกับของผู้ทำหมายเหตุประกอบแต่ละรายการเป็นงานย่อยที่แยกจากกัน สามารถช่วยบรรเทาปัญหาที่อาจเกิดขึ้นซึ่งเกิดขึ้นในวิธีการทั่วไปตามความเป็นจริง ซึ่งความขัดแย้งของผู้ทำหมายเหตุประกอบอาจเนื่องมาจากการเป็นตัวแทนและ อาจถูกละเลยในการรวมคำอธิบายประกอบกับความจริงพื้นเดียว 

3. เชื่อถือได้

ความน่าเชื่อถือมาจากธุรกิจที่โปร่งใสและอธิบายได้ว่ามีการฝึกอบรมโมเดล AI อย่างไร มันทำงานอย่างไร และเหตุใดจึงแนะนำผลลัพธ์ ธุรกิจต้องการความเชี่ยวชาญด้านการแปล AI เพื่อให้ลูกค้าสามารถทำให้แอปพลิเคชัน AI ของพวกเขามีความครอบคลุมและเป็นส่วนตัวมากขึ้น โดยคำนึงถึงความแตกต่างที่สำคัญในภาษาท้องถิ่นและประสบการณ์ของผู้ใช้ที่สามารถสร้างหรือทำลายความน่าเชื่อถือของโซลูชัน AI จากประเทศหนึ่งไปอีกประเทศหนึ่ง . ตัวอย่างเช่น ธุรกิจควรออกแบบแอปพลิเคชันสำหรับบริบทส่วนบุคคลและที่ปรับให้เข้ากับท้องถิ่น รวมถึงภาษา ภาษาถิ่น และสำเนียงในแอปพลิเคชันที่ใช้เสียง ด้วยวิธีนี้ แอปจะมอบประสบการณ์การใช้เสียงระดับเดียวกันในทุกภาษา ตั้งแต่ภาษาอังกฤษไปจนถึงภาษาที่ไม่ค่อยมีคนพูดถึง

ความเป็นธรรมและความหลากหลาย

ในที่สุด AI ที่มีสติจะช่วยให้แน่ใจว่าโซลูชันถูกสร้างขึ้นจากชุดข้อมูลที่ยุติธรรมและหลากหลาย โดยที่ผลที่ตามมาและผลกระทบของผลลัพธ์นั้น ๆ จะได้รับการตรวจสอบและประเมินผลก่อนที่โซลูชันจะออกสู่ตลาด ด้วยการใส่ใจและรวมถึงมนุษย์ในทุกส่วนของการพัฒนาโซลูชัน เราช่วยให้มั่นใจว่าโมเดล AI นั้นสะอาด มีอคติน้อยที่สุด และมีจริยธรรมมากที่สุด

คุณคิดอย่างไร?

ไซต์นี้ใช้ Akismet เพื่อลดสแปม เรียนรู้วิธีการประมวลผลข้อมูลความคิดเห็นของคุณ.