OpenAI กังวล มนุษย์สัมพันธ์ลึกซึ้งกับ AI มากเกินไป จนอาจกระทบความสัมพันธ์อื่นและสร้างความโดดเดี่ยว

หลังจาก OpenAI ผู้พัฒนา ChatGPT ได้เปิดให้ใช้บริการ ‘โหมดเสียงโต้ตอบ’ ที่ถูกออกแบบมาให้สนทนาคล้ายมนุษย์เมื่อช่วงต้นเดือน ดูเหมือนรายงานผลการทดสอบก็เริ่มปรากฏให้เห็นในวงกว้างแล้ว โดยเฉพาะรายงานจาก OpenAI เองที่มีบางช่วงบางตอนที่น่าสนใจอยู่เหมือนกัน เช่นการที่ OpenAI เขียนอย่างชัดเจนว่าตนเอง ‘กังวล’ ว่าผู้คนอาจเริ่มผูกพันกับเสียงของ AI มากจนเกินพอดี


เนื่องจากโหมดเสียงโต้ตอบขั้นสูงในปัจจุบันของ ChatGPT ให้เสียงที่สมจริงอย่างน่าทึ่ง รวมถึงสามารถตอบสนองอย่างเรียลไทม์ ปรับจังหวะให้เข้ากับการพูดคุยของมนุษย์ได้ และยังพอเข้าใจอารมณ์ของผู้พูดตามน้ำเสียงได้อีกต่างหาก ดังนั้นผลการสำรวจที่พวกเขาค้นพบจึงเป็นไปในแนวทางว่า ‘ผู้ใช้เริ่มผูกพันกับ AI มากกว่าเดิม’ ซึ่งนั่นเองที่ทำให้ OpenAI เกิดความกังวลว่าผู้คนจะลดความจำเป็นในการมีปฏิสัมพันธ์กับมนุษย์ลดลงหรือเปล่า


ยังไม่นับรวมการเชื่อถือที่ยิ่ง AI เหมือนมนุษย์มากเท่าไหร่ มนุษย์ก็มีโอกาสเชื่อ AI มากขึ้นมากเท่านั้น ความสัมพันธ์ที่กำลังก่อตัวนี้จึงกลายเป็นที่จับตา เพราะไม่ใช่ว่ายังไม่เกิดขึ้น แต่ปัจจุบันเริ่มเกิดกระแสที่ ‘คนเดทกับ AI’ ขึ้นบ้างแล้ว โดยเฉพาะในประเทศจีนที่มีหลายคนประกาศตัวว่าเป็นแฟนกับ AI อย่างเปิดเผย


แต่ถึงกระนั้น กับสิ่งที่เกิดขึ้น Liesel Sharabi ศาสตราจารย์จากมหาวิทยาลัยรัฐแอริโซนา ผู้ศึกษาด้านเทคโนโลยีและการสื่อสารของมนุษย์ ได้ให้สัมภาษณ์ไว้กับ CNN อย่างน่าสนใจ ว่าแค่การแสดงความกังวลจาก OpenAI ยังไม่พอ เพราะเธอมองว่าเป็นหน้าที่ของผู้พัฒนาด้วยที่ต้องรับผิดชอบกับความเปลี่ยนแปลงที่เกิดขึ้นมากกว่านี้


“บริษัทมีหน้าที่ต้องรับผิดชอบในการดำเนินงานตามหลักจริยธรรม ดังนั้นนอกจากสร้างขึ้นมาแล้ว ในความคิดของฉัน ผู้พัฒนาก็ควรมีมาตรการตามมาในการรับมือสิ่งที่จะเกิดขึ้นด้วย เพราะระหว่างที่เราพูดคุยกันอยู่รี้ ผู้คนกำลังสร้างความสัมพันธ์ที่ลึกซึ้งกับเทคโนโลยีอยู่จริงๆ และไม่ได้มีอะไรการันตีเลยว่าความสัมพันธ์ที่ว่าต้องแลกกับอะไรบ้าง”


โดยในปัจจุบัน OpenAI ได้ใส่มาตรฐานเรื่องความปลอดภัยทางอารมณ์ลงไปในหลักการพัฒนาของ AI แล้ว แต่ในเชิงปฏิบัติจริงจะออกมาเป็นรูปธรรมแบบไหน มากกว่าแค่การแสดงความกังวลหรือเปล่า เราคงต้องติดตามกันต่อไป