เมื่อ AI กลายมาเป็นเครื่องมือที่ทุกคนเข้าถึงได้และบริษัทต่างก็ใช้ AI เพื่ออำนวยความสะดวก ไม่ว่าจะแชตบอทที่สามารถตอบคำถามและสืบค้นข้อมูลให้ผู้ใช้งานได้ในระยะเวลาสั้นๆ หรือ AI ที่ช่วยจัดการงานตามคำสั่ง (prompt) แต่จะทำอย่างไรเมื่อ AI ก็สามารถเกิดอาการหลอนได้เช่นกัน
อาการหลอนของ AI (AI Hallucination) เกิดขึ้นเมื่อ AI ถูกพัฒนาให้มีความคิดสร้างสรรค์ AI จึงสรรค์สร้างข้อมูลลวงขึ้นเองจากความผิดพลาด จากไบแอส หรือจากความคลุมเครือของข้อมูล ดังตัวอย่างเมื่อให้ AI ค้นคว้างานวิจัย คำตอบที่ได้เป็นงานวิจัยที่มีชื่อผู้วิจัยและเลข DOI ครบถ้วนและน่าเชื่อถือ แต่กลับไม่ใช่งานวิจัยที่มีอยู่จริงเพราะ AI มโนสร้างข้อมูลเท็จขึ้นมาจากฐานข้อมูล ความผิดพลาดเหล่านี้เกิดขึ้นได้เมื่อคำสั่งของผู้ใช้มีความคลุมเครือไม่ชัดเจน AI มีฐานข้อมูลไม่เพียงพอ AI ไม่ได้ถูกเทรนมาดีมากพอ หรือใช้งาน AI เกินความสามารถของมัน
เนื่องจากกระบวนการทำงานของ AI เป็นการรวบรวมข้อมูลจาก Big data มหาศาลในอินเตอร์เน็ตหรือฐานข้อมูลที่ผู้ใช้ทำการเทรน AI จากนั้น AI จะสร้างข้อมูลโดยคาดเดาคำตอบจากความน่าจะเป็นที่มากที่สุด คำตอบที่ได้จาก AI จึงไม่ใช่ความจริงที่ถูกต้องเสมอไป จุดนี้เองที่ผู้ใช้งานต้องตระหนักไว้เสมอว่าการใช้ AI เป็นเครื่องมือนั้นเป็นแค่การช่วยเหลือเบื้องต้นเท่านั้น
หลักการที่จะลดความผิดพลาดจากอาการหลอนของ AI ทำได้โดยประเมินความเสี่ยงที่ AI จะเกิดอาการหลอน สร้างระบบการตรวจสอบความถูกต้องของข้อมูลที่ได้ และควบคุมขอบเขตการใช้งาน AI เพื่อลดความเสี่ยงดังกล่าว ดังนั้นหน้าที่สำคัญจึงอยู่ที่ผู้ใช้งานซึ่งจะต้องตรวจสอบข้อมูลที่ได้จาก AI เสมอ เพื่อป้องกันข้อมูลที่ผิดพลาดจากอาการหลอนๆ ของ AI นั่นเอง
ขอบคุณข้อมูลจาก
AI hallucinations: what business leaders should know
AI Hallucination คืออะไร?
#Cathcarttechnology #AI #AIHallucination #Riskassessment
Article by Wannakorn Thongkaow
Associate Director
Piyatida Anthong
Thailand