4 มีนาคม 2564: เอไอเอส ร่วมกับสถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch)
เผยถึงความสำเร็จของทีมนักวิจัยไทย หลังใช้เวลาเพียง 2 ปี พัฒนาชุดข้อมูล (Dataset) จำแนกอารมณ์จากเสียงพูดภาษาไทย (Speech Emotion Recognition หรือ THAI SER) ได้เป็นครั้งแรกของโลก ด้วยการพัฒนาเทคโนโลยี AI เข้าสู่กระบวนการเรียนรู้ (Deep Learning) มาประยุกต์ใช้ในการประมวลผลสัญญาณเสียง ช่วยให้เข้าใจคุณลักษณะของเสียง ขึ้นแท่นเป็น SER ที่พัฒนาจาก Dataset ที่ใหญ่เป็นอันดับที่ 3 ของโลก โดยอันดับ1 และ2 เป็นภาษาอังกฤษ ที่พัฒนามาจากชุด Dataset เสียงจาก Podcast และ YouTube ที่จะสามารถนำไปประยุกต์ใช้เพื่อเพิ่มประสิทธิภาพด้านงานบริการที่ตอบโจทย์ความต้องการของลูกค้าได้มากยิ่งขึ้น ทั้งนี้ ผู้ที่สนใจ สามารถศึกษารายละเอียดเพิ่มเติม พร้อมดาวน์โหลดชุดข้อมูล THAI SER ไปพัฒนาต่อยอดได้ฟรีแล้ว ทางเว็บไซต์ https://airesearch.in.th ตั้งแต่วันนี้ เป็นต้นไป
นายซันเจย์ แอนดรูว์ โทมัส หัวหน้าคณะผู้บริหารด้านเทคโนโลยีสารสนเทศ เอไอเอส กล่าวว่า “ในปัจจุบัน เทคโนโลยี AI ด้านภาษา ถูกนำมาใช้งานอย่างกว้างขวางมากขึ้น โดยเฉพาะอย่างยิ่งภาษาอังกฤษ ซึ่งถือเป็นประโยชน์อย่างมหาศาลในเรื่องการสร้างความเข้าใจลูกค้าในมุมมองด้านอารมณ์และความรู้สึก ซึ่งจะช่วยให้ภาคธุรกิจสามารถประเมินสภาวะทางอารมณ์ของลูกค้า เพื่อนำไปใช้เป็นข้อมูลในการเพิ่มประสิทธิภาพด้านงานบริการได้ดียิ่งขึ้น โดยพิจารณาจาก Customer insight ด้านอารมณ์ของลูกค้า ที่มาจากการให้บริการในด้านต่างๆ
ด้วยเหตุนี้ AIS ในฐานะ Digital Service Provider เล็งเห็นถึงความสำคัญในการพัฒนา โครงสร้างพื้นฐาน AI ภาษาไทย โดยเฉพาะการตรวจจับอารมณ์โดยเสียงภาษาไทย ซึ่งเป็นการพัฒนาที่ต้องการ Expert Domain และ ดาต้าขนาดใหญ่ เพื่อให้เกิดการใช้งานได้จริง ดังนั้น ความร่วมมือระหว่างเอไอเอส และ AIResearch จึงถือเป็นจุดเริ่มต้นของการก่อร่าง ecosystem ในแวดวง Deep Tech ในประเทศไทย ให้เติบโตได้อย่างแข็งแกร่ง ทัดเทียมกับนานาชาติ มีบุคลากรที่มีความรู้ ความเชี่ยวชาญในด้านต่างๆ เข้ามาร่วมทำงานสร้างนวัตกรรมที่เกิดประโยชน์ต่อคนไทยทุกภาคส่วน เพื่อสร้างโอกาสในการแข่งขันในเวทีโลก เราเชื่อมั่นว่า ด้วยความเชี่ยวชาญ ความคิดสร้างสรรค์ของคนไทย จะเป็นจุดเชื่อมโยงผลักดันให้ผลงานต่างๆ ของนักวิจัยไทย เป็นที่จดจำและยอมรับในสายตาโลกได้อย่างแน่นอน”
ชุดข้อมูล THAI SER สามารถจำแนนอารมณ์จากเสียงได้ 5 อารมณ์ ได้แก่ โกรธ / เศร้า / สุข /หงุดหงิด และปกติ โดยมีความแม่นยำอยู่ที่ 70% และมีความพร้อมที่จะใช้งานสูงถึง 80% ส่วนที่เหลืออีก 20% เพื่อให้แบบจำลองพื้นฐาน มีผลการวิเคราะห์ที่ความแม่นยำสุงสูงขึ้น และพร้อมใช้งานในสภาพแวดล้อมการทำงานจริงขององค์กรต่างๆ ที่จะต้องพัฒนาตามแต่ละบริบทต่อไป
ตัวอย่างของการนำเทคโนโลยี ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER ไปใช้งานจริง ได้แก่
1. การวิเคราะห์อารมณ์ของลูกค้า จาก ‘เสียงพูด’
2. การจัดลำดับการให้บริการลูกค้า จาก ‘อารมณ์’ ของลูกค้า
3. มอบหมายสายลูกค้าให้กับ CSR ตามความสามารถในการรับมืออารมณ์ต่าง ๆ
4. ฝึกสอน และเตรียมความพร้อมให้กับ CSR ในการปฏิบัติงานจริง
5. ช่วยเพิ่มความสามารถในการเข้าใจสถานการณ์ และเพิ่มโอกาสในการปิดการขาย
ซึ่งในขณะนี้ ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER พร้อมแล้วที่จะให้นักพัฒนา, กลุ่ม Startup, ผู้ประกอบการ SME, ผู้ให้บริการ และองค์กรต่างๆ เข้ามาศึกษาข้อมูลเพิ่มเติม และนำแพลตฟอร์มนี้ไปต่อยอดในการออกแบบแอปพลิเคชันหรือโซลูชั่นต่างๆ ที่รองรับ AI ภาษาไทยมากขึ้น โดยไม่เสียค่าใช้จ่ายใดๆ ทั้งสิ้น โดยเข้าไปที่เว็บไซต์ https://airesearch.in.th ได้แล้วตั้งแต่วันนี้