AI สำหรับองค์กรไม่แสวงผลกำไร: ความไว้วางใจแต่การตรวจสอบมีความหมายในทางปฏิบัติ

เผยแพร่แล้ว: 2024-08-29

ความสงสัยในส่วนที่เท่ากันและ FOMO นั่นคือความรู้สึกของมืออาชีพที่ไม่หวังผลกำไรส่วนใหญ่ที่เราพูดคุยด้วยในปีนี้เกี่ยวกับปัญญาประดิษฐ์ (AI)

คุณไม่สามารถจมอยู่กับทรายเมื่อพูดถึง AI และไม่ควรกระโดดลงไปโดยไม่คิดถึงผลกระทบที่อาจเกิดขึ้นกับองค์กรและชุมชนของคุณอย่างลึกซึ้ง

ดังที่ Sam Caplan เขียนไว้ว่า “หากปี 2023 เป็นปีแห่งความอยากรู้อยากเห็นของ AI แล้ว ปี 2024 ก็เป็นปีแห่ง ความตั้งใจของ AI ” ปีนี้ AI เริ่มเติบโตเต็มที่แล้ว แต่นั่นไม่ได้หมายความว่า AI จะปราศจากปัญหาด้านความไว้วางใจโดยสิ้นเชิง ซึ่งแม้แต่ผู้สนับสนุน AI อย่างแข็งขันก็รับทราบ

Devi Thomas หัวหน้าระดับโลกด้านศักยภาพชุมชนที่ไม่แสวงหากำไรที่ Microsoft Philanthropies นำความรู้มากมายเกี่ยวกับการบูรณาการเทคโนโลยีเพื่อประโยชน์ทางสังคม Beth Kanter ที่ปรึกษาและนักเขียนที่ไม่หวังผลกำไรผู้ช่ำชอง ใช้เวลาหลายปีในการช่วยให้องค์กรต่างๆ ใช้ประโยชน์จากเทคโนโลยีเพื่อขยายผลกระทบของพวกเขา ข้อมูลเชิงลึกของพวกเขาร่วมกันให้ความกระจ่างว่าองค์กรไม่แสวงผลกำไรสามารถนำ AI มาใช้อย่างรอบคอบและมีความรับผิดชอบได้อย่างไร

ทั้งหมดนี้มีแนวคิดเดียว: เชื่อใจ แต่ยืนยัน นี่คือความหมายในทางปฏิบัติ

ให้มนุษย์นั่งบนที่นั่งนักบินเสมอ

อาจเป็นเรื่องยากที่จะปล่อยให้ AI เข้ามาควบคุมเรือ ด้วยความที่ใช้งานง่าย อย่างไรก็ตาม ทั้ง Devi และ Beth เน้นย้ำถึงความสำคัญของการรักษามนุษย์ให้มั่นคงอยู่ในที่นั่งของนักบินเสมอ

ดังที่ Beth กล่าวไว้ “เรามอง AI จริงๆ และเรียก AI ทั้งภายในและภายนอกที่ Microsoft ว่าเป็นผู้ช่วยของคุณ มนุษย์ คือนักบิน”

AI เป็นเทคโนโลยีช่วยเหลือที่ปรับปรุงผลงานของมนุษย์โดยไม่ต้องมาแทนที่วิจารณญาณของมนุษย์ สิ่งสำคัญคือการรู้ว่างานใดที่จะมอบหมายให้กับ AI ในการสำรวจผู้นำที่ไม่หวังผลกำไรมากกว่า 400 ราย Devi กล่าวว่า Microsoft พบว่า 25% เชื่อว่าทักษะที่สำคัญที่สุดในการสอนทีมคือเมื่อใดควรใช้ AI และเมื่อใดควรใช้มนุษย์

ดังที่ Eric Lucht จาก Microsoft กล่าวไว้ “คุณจะเชื่อใจผู้ฝึกงานด้วยหรือไม่ ถ้าไม่เช่นนั้นก็อย่าใช้ AI เพื่อมัน” หากคุณไว้วางใจเฉพาะมืออาชีพที่ได้รับค่าจ้างสูงและมีประสบการณ์มาหลายปีในการทำงาน คุณไม่ควรใช้ AI ในการทำงานนั้น

ความรับผิดชอบคือหลักการอันดับหนึ่งของ AI ที่มีความรับผิดชอบของ Microsoft ในทางปฏิบัติ หมายความว่าผู้ใช้ AI ไม่ควรประนีประนอมกับข้อเท็จจริงที่ว่าจะต้องมีการควบคุมดูแลโดยมนุษย์ที่เกี่ยวข้อง โดยเริ่มตั้งแต่ขั้นตอนการออกแบบ การควบคุมมนุษย์ทำให้มั่นใจได้ว่า AI ยังคงเป็นเครื่องมือในการสนับสนุนและเพิ่มพูนความพยายามของมนุษย์ แทนที่จะเป็นสิ่งทดแทนที่ไม่ดีสำหรับพวกเขา

เข้าใจข้อจำกัดของ AI

ตั้งแต่การวิเคราะห์ชุดข้อมูลผู้บริจาคเพื่อคาดการณ์การตอบสนองต่อภัยพิบัติในอนาคต ไปจนถึงการแปลสำหรับประชากรพลัดถิ่น ดูเหมือนจะมีกรณีการใช้งานที่ไม่มีที่สิ้นสุดสำหรับ AI สำหรับองค์กรไม่แสวงผลกำไร AI มีศักยภาพมหาศาล แต่ก็ไม่ใช่กระสุนวิเศษ การทำความเข้าใจข้อจำกัดเป็นสิ่งสำคัญสำหรับองค์กรที่ไม่หวังผลกำไรที่ต้องการใช้ AI อย่างมีความรับผิดชอบ

รับรู้ถึงช่วงการเรียนรู้

แม้ว่าการประมวลผลภาษาธรรมชาติจะทำให้คนส่วนใหญ่สามารถเข้าถึง AI ได้ แต่ก็ยังต้องมีช่วงการเรียนรู้ที่เกี่ยวข้องกับการใช้งาน เช่นเดียวกับเทคโนโลยีใหม่ๆ ดังที่ Devi ตั้งข้อสังเกตจากการศึกษาของ Microsoft “58% ของผู้นำที่ไม่หวังผลกำไรกังวลเกี่ยวกับการเรียนรู้ที่สูงชันเพื่อทำความเข้าใจ AI”

ลงทุนเวลาในการฝึกอบรมและทำความคุ้นเคยกับทีมของคุณด้วยเครื่องมือ AI อย่าคิดว่าทุกคนรู้วิธีใช้อย่างถูกต้อง นั่นทำให้คุณพลาดความแตกต่างที่สำคัญเมื่อใช้ AI

ระวังความมั่นใจมากเกินไป

AI มักจะฟังดูมั่นใจในผลลัพธ์ ซึ่งอาจนำไปสู่ความไว้วางใจที่ผิดพลาด AI ยังคงอยู่ในระหว่างดำเนินการและสามารถทำผิดพลาดได้ ดังที่เห็นได้จากการเปิดตัวภาพรวม AI ของ Google ที่ฉาวโฉ่เมื่อเร็ว ๆ นี้ โดยให้คำแนะนำในการกินก้อนหินหรือเติมกาวลงในพิซซ่า

“ทักษะการคิดเชิงวิพากษ์ทั้งหมดที่เราสอนในการใช้อินเทอร์เน็ตเป็นสิ่งจำเป็นที่นี่” Devi เตือน

นั่นคือจุดสำคัญของ "เชื่อใจแต่ยืนยัน": เข้าถึงเอาต์พุตของ AI ด้วยสายตาที่มีวิจารณญาณ และตรวจสอบผลลัพธ์แทนที่จะพิจารณาตามมูลค่าที่ตราไว้

ใช้แนวทางความเป็นส่วนตัวเป็นอันดับแรก

Devi เล่าว่า 63% ของผู้นำที่ไม่หวังผลกำไรกังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับการใช้ AI การใช้ AI อย่างมีความรับผิดชอบเกี่ยวข้องกับการทำความเข้าใจว่าอินพุตของคุณไปที่ใด ถูกใช้อย่างไร และเอาต์พุตของคุณมาจากไหน

ข้อมูลที่องค์กรไม่แสวงหากำไรจัดการมักมีความละเอียดอ่อน การใช้งานที่ไม่หวังผลกำไรของระบบที่ขับเคลื่อนด้วย AI ทั้งหมดจะต้องปฏิบัติตามกฎระเบียบการปกป้องข้อมูลและแนวปฏิบัติที่ดีที่สุด ตรวจสอบให้แน่ใจว่าพวกเขาเข้ารหัสข้อมูล จัดเก็บข้อมูลอย่างปลอดภัย และอัปเดตโปรโตคอลความปลอดภัยเป็นประจำเพื่อปกป้องข้อมูล

สิ่งสำคัญที่สุดคือการให้ความรู้แก่พนักงานและอาสาสมัครเกี่ยวกับวิธีการปกป้องตนเองและข้อมูลของพวกเขาเมื่อใช้ AI คำนึงถึงความเป็นส่วนตัวตั้งแต่เริ่มแรก มีความโปร่งใสกับผู้มีส่วนได้ส่วนเสียเกี่ยวกับวิธีการใช้และปกป้องข้อมูลโดยเครื่องมือ AI ที่พวกเขาใช้

รู้ว่าผลลัพธ์ของคุณมาจากไหน

ความโปร่งใสเป็นหลักการสำคัญอีกประการหนึ่งของ AI ที่มีความรับผิดชอบ และเป็นกุญแจสำคัญในการสร้างความไว้วางใจในระบบ AI ผู้คนจำเป็นต้องรู้ว่าข้อมูลที่ใช้โดย AI มาจากไหน และกระบวนการที่เกี่ยวข้องกับการสร้างผลลัพธ์ ด้วยความโปร่งใส องค์กรที่ไม่หวังผลกำไรสามารถมั่นใจได้ว่าผู้มีส่วนได้ส่วนเสียเข้าใจและไว้วางใจระบบ AI ที่มีอยู่

ตัวอย่างเช่น Copilot by Bing อ้างอิงแหล่งที่มาของการอ้างสิทธิ์ที่สร้างขึ้นแต่ละรายการ พร้อมด้วยไฮเปอร์ลิงก์ไปยังหน้าเว็บที่เหมาะสม Devi สนับสนุนให้ผู้ใช้ AI มีความอยากรู้อยากเห็น และตั้งคำถามว่า AI ได้รับข้อมูลมาจากไหน

เริ่มจากเล็กๆ แล้วประเมินใหม่

การนำ AI มาใช้อาจเป็นงานที่น่ากังวล โดยเฉพาะอย่างยิ่งสำหรับองค์กรไม่แสวงผลกำไรที่มีทรัพยากรจำกัด นั่นเป็นเหตุผลว่าทำไมจึงคุ้มค่าที่จะเริ่มต้นจากเล็กๆ น้อยๆ แล้วประเมินใหม่ว่า AI เหมาะสมกับองค์กรที่ไม่หวังผลกำไรของคุณหรือไม่

Devi แนะนำให้องค์กรไม่แสวงผลกำไรเริ่มต้นจากเล็กๆ ด้วย AI ตามกระบวนการสามขั้นตอนที่ปรับขนาดได้:

  1. ลองนึกถึงกรณีการใช้งาน AI ของคุณ สิ่งที่เฉพาะเจาะจงและจัดการได้ โดยที่ AI ให้ประโยชน์ที่ชัดเจน ตัวอย่างเช่น การตอบกลับอีเมลอัตโนมัติหรือการวิเคราะห์ข้อมูลผู้บริจาค ด้วยการมุ่งเน้นไปที่กรณีการใช้งานเดียว องค์กรไม่แสวงหากำไรจะสามารถควบคุมและวัดผลลัพธ์ได้ดีขึ้น
  2. ทดสอบกรณีการใช้งานนั้น กำหนด KPI เพื่อวัดผลกระทบของ AI ในกรณีการใช้งานที่คุณเลือก ใช้เครื่องมือ AI ในระดับเล็กและติดตามประสิทธิภาพอย่างใกล้ชิด
  3. ประเมินและปรับเปลี่ยน พิจารณาว่าสิ่งใดได้ผลและสิ่งใดไม่ได้ผล ประเมินผลกระทบของผลลัพธ์ของโครงการขนาดเล็กนี้ต่อ KPI ของคุณ ประเมินผลประโยชน์ ความท้าทาย และผลที่ตามมาโดยไม่ตั้งใจ ดังที่ Devi กล่าวไว้ ทุกอย่างเกี่ยวกับการเรียนรู้อย่างต่อเนื่องและการปรับปรุงตามกรณีการใช้งานที่คุณเลือก

จากนั้น คุณสามารถปรับขนาดการใช้งาน AI ของคุณขึ้นหรือลงได้อย่างรอบคอบ

เปลี่ยนโฟกัสของคุณจากการผลิตเต็มรูปแบบไปเป็น 20% สุดท้าย

การนำ AI มาใช้จำเป็นต้องมีการเปลี่ยนแปลงพื้นฐานในวิธีที่เราเข้าถึงงานและโครงการ มันไม่เกี่ยวกับการเริ่มต้นด้วยกระดานชนวนว่างเปล่าอีกต่อไป AI สามารถวางรากฐานได้ และผู้คนก็สามารถสร้างจากที่นั่นได้

“มนุษย์ส่วนใหญ่คุ้นเคยกับการสร้างผลิตภัณฑ์ตั้งแต่ 0 ถึง 80” Devi กล่าว “ตอนนี้เราต้องเปลี่ยนพฤติกรรมโดยเปลี่ยนจาก 80 เป็น 100”

แนวทางนี้เป็นประโยชน์อย่างยิ่งสำหรับองค์กรไม่แสวงผลกำไรที่มักมีเวลาจำกัด ดังที่ผู้รับทุนรายหนึ่งเราได้พูดคุยด้วยอธิบายว่า “ประโยชน์ที่ใหญ่ที่สุดของ AI ในองค์กรที่ไม่สามารถจ่ายระดับพนักงานของ [องค์กร] ขององค์กรได้จริงๆ คืองานพื้นฐานที่ต้องใช้แรงงานต่ำเหล่านั้น”

เบธอธิบายแนวคิดนี้อย่างละเอียด โดยอธิบายว่า AI เป็นการจ่ายเงินปันผลของเวลา ด้วยการรับหน้าที่น่าเบื่อมากขึ้น AI ช่วยให้ผู้เชี่ยวชาญที่ไม่หวังผลกำไรมีอิสระในการมุ่งเน้นไปที่ประเด็นที่สำคัญกว่า

“AI จะมีผลกระทบอย่างมากต่อวิธีการทำงานของเรา มันจะทำให้การทำงานหนักๆ เป็นไปอย่างอัตโนมัติ หรือหลายๆ อย่างที่ฉันเรียกว่าแอโรบิกสเปรดชีต การตัดและวาง” เบธกล่าว “ยังจะช่วยเพิ่มเวลาในการจัดการกับสิ่งต่างๆ เช่น อัตราการรักษาผู้บริจาค หรือช่วยให้เราคิดอย่างสร้างสรรค์มากขึ้นเกี่ยวกับกลยุทธ์และนวัตกรรม และส่งมอบโปรแกรมที่มีประสิทธิภาพมากขึ้น”

ในทางปฏิบัติ นี่หมายถึงการนำ AI มาใช้เป็นจุดเริ่มต้นในการสร้างความคิดเบื้องต้น ร่าง หรือการวิเคราะห์ จากนั้นปรับแต่งและปรับปรุงผลลัพธ์ของ AI ด้วยข้อมูลเชิงลึกและความเชี่ยวชาญของมนุษย์ การรับเอาต์พุต AI ที่มีคุณภาพเหมาะสม 80% ถึง 100% ต้องใช้การสัมผัสของมนุษย์ โดยผสมผสานบริบทขององค์กรและความเข้าใจอันละเอียดอ่อนซึ่ง AI ไม่สามารถให้ได้

การทำงานกับ AI จำเป็นต้องมีกรอบความคิดแบบเติบโต ความเต็มใจที่จะเรียนรู้และปรับตัวเข้ากับการใช้ AI ในขั้นตอนการทำงานของคุณ และความสามารถในการเชื่อมช่องว่างระหว่างผลลัพธ์ที่สร้างโดย AI กับผลลัพธ์คุณภาพสูงที่สอดคล้องกับภารกิจ

เพิ่มการซื้อจากบนลงล่าง

ทีมผู้นำจำเป็นต้องได้รับทั้งการศึกษาและสามารถให้ความรู้แก่ผู้อื่นเกี่ยวกับวิธีใช้ AI อย่างมีความรับผิดชอบ พวกเขากำหนดแนวทางให้กับองค์กรของตนและมีอิทธิพลอย่างมากต่อการนำ AI มาใช้อย่างมีประสิทธิภาพและมีความรับผิดชอบ

“สิ่งที่ฉันได้เห็นและได้ยินคือมันเริ่มต้นจากด้านบน” เทวีกล่าว “หากคุณมีทีมผู้นำที่ลงทุนด้านเทคโนโลยีอย่างลึกซึ้ง การสร้างการยอมรับทั่วทั้งองค์กรและกับอาสาสมัครจะง่ายกว่า จากนั้น คุณสามารถขยายขนาดได้ โดยทำให้แน่ใจว่าพนักงานและทุกคนที่สัมผัสภารกิจนี้รู้วิธีใช้งานอย่างมีความรับผิดชอบและมีจริยธรรม”

ผู้นำจะต้องสื่อสารคุณค่าและศักยภาพของ AI อย่างชัดเจนและสม่ำเสมอ และให้แน่ใจว่าโครงการ AI สอดคล้องกับพันธกิจขององค์กร พวกเขาควรจะสามารถอธิบายได้ว่า AI ปรับปรุงผลลัพธ์และประสิทธิภาพการดำเนินงานอย่างไร ซึ่งแสดงให้เห็นถึงความเกี่ยวข้องของเทคโนโลยีกับงานหลักขององค์กรไม่แสวงผลกำไร

ผู้นำที่ยอมรับ AI จะต้องมีความคาดหวังที่สมจริงในสิ่งที่เป็นไปได้ด้วย พวกเขาจำเป็นต้องเข้าใจถึงความจำเป็นในการให้มนุษย์นั่งอยู่ในที่นั่งคนขับ ขณะเดียวกันก็ให้การสนับสนุนแก่พนักงานเพื่อเรียนรู้ทักษะใหม่ๆ ซึ่งหมายถึงการส่งเสริมวัฒนธรรมการสำรวจและนวัตกรรมเกี่ยวกับการใช้ AI

“ให้เวลาและทรัพยากรแก่ทีมในการเรียนรู้และเล่นกับเครื่องมือ AI” Devi กล่าว “กระตุ้นให้ผู้คนใช้เวลากับ generative AI เข้าไปและรับคำแนะนำที่เฉพาะเจาะจงมากขึ้นเรื่อยๆ เรียนรู้วิธีเพิ่มบริบทเพื่อให้ได้ผลลัพธ์ที่เหมาะสม”

“ผู้นำต้องสร้างความปลอดภัยทางจิตใจเกี่ยวกับการใช้ AI” Beth กล่าวเสริม “ปรับจิตใจของผู้เริ่มต้นสู่ AI ให้เป็นปกติ เราจะต้องค่อยๆ ยอมรับมันอย่างรอบคอบและมีความรับผิดชอบ”

AI สามารถยกระดับสนามแข่งขันที่ไม่แสวงหากำไรได้

คุณอาจคิดว่าองค์กรขนาดใหญ่เป็นองค์กรที่นำ AI มาใช้อย่างกระตือรือร้น แต่ดังที่ Devi สังเกตจากการศึกษาของพวกเขา จริงๆ แล้วองค์กรไม่แสวงผลกำไรขนาดเล็กกลับได้รับประโยชน์จาก AI มากที่สุด

“องค์กรไม่แสวงผลกำไรขนาดเล็กนำ AI มาใช้บ่อยขึ้น” Devi กล่าว “พวกเขามีแรงบันดาลใจเพราะว่ามันช่วยประหยัดเวลาได้มาก เป็นโอกาสในการใช้ทรัพยากรเพื่อไปต่อ”

AI ยังสามารถช่วยปิดช่องว่างระหว่างองค์กรไม่แสวงกำไรที่ไม่มีประสบการณ์ ที่เพิ่งเกิดใหม่กับองค์กรที่เป็นที่ยอมรับมากขึ้น โดยเฉพาะอย่างยิ่งในด้านการให้ทุน ซึ่งการระบุภารกิจของคุณอย่างชัดเจนเป็นกุญแจสำคัญในการได้รับเงินทุน ดังที่ผู้รับทุนรายหนึ่งบอกเราว่า “ถ้าฉันให้คำอธิบายโดยละเอียดแก่ AI เกี่ยวกับสิ่งที่องค์กรของฉันทำและสิ่งที่ [แอปพลิเคชัน] กำลังมองหา ก็อาจจะสามารถช่วยฉันได้”

AI มอบศักยภาพอันน่าทึ่งให้กับองค์กรไม่แสวงผลกำไร แต่การนำไปใช้ให้ประสบความสำเร็จนั้นต้องใช้แนวทางที่รอบคอบ ด้วยการปฏิบัติตามหลักการ AI ที่มีความรับผิดชอบ องค์กรที่ไม่หวังผลกำไรจะสามารถควบคุมพลังของ AI เพื่อเพิ่มผลกระทบของพวกเขาในขณะที่ยังคงรักษาพันธกิจและค่านิยมของตนเอาไว้

หากต้องการมีส่วนร่วมในการสนทนาเกี่ยวกับ AI สำหรับองค์กรไม่แสวงผลกำไรมากขึ้น โปรดดูการสัมมนาผ่านเว็บตามความต้องการของเรา AI สำหรับมูลนิธิ: ไพรเมอร์สำหรับนักปฏิบัตินิยม รับฟังโดย Anne Nies ผู้อำนวยการฝ่ายวิทยาศาสตร์ของ Substable, Alicia Tapia นักยุทธศาสตร์ด้านเทคโนโลยีอาวุโสของ Microsoft และ Sam Caplan รองประธานฝ่ายผลกระทบทางสังคมของ Substable แบ่งปันสิ่งที่พวกเขาได้เรียนรู้เกี่ยวกับ AI และการนำไปใช้ในอุดมคติสำหรับรากฐาน