เรือนไทย
ยินดีต้อนรับ ท่านผู้มาเยือน
กรุณา เข้าสู่ระบบ หรือ ลงทะเบียน
ส่งอีเมล์ยืนยันการใช้งาน?
ข่าว: การแนบไฟล์ กรุณาใช้ชื่อไฟล์ภาษาอังกฤษเท่านั้นครับ
หน้า: 1 ... 6 7 [8]
  พิมพ์  
อ่าน: 12993 AI อันตรายถึงชีวิต
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 105  เมื่อ 21 ส.ค. 25, 11:00

บันทึกการเข้า
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 106  เมื่อ 23 ส.ค. 25, 10:39

รู้เท่าทัน AI Hallucination เมื่อธรรมชาติของ AI คือการคาดเดา

เวลาที่เราถามอะไร แล้วระบบให้คำตอบที่ผิด ตอบมั่ว หรือมั่นใจในข้อมูลผิด ๆ หลายคนอาจคิดว่า “ระบบยังไม่สมบูรณ์” หรือ “คงต้องรอเวอร์ชันใหม่ให้ฉลาดกว่านี้” แต่ความจริงคือ ปัญหานี้จะไม่ได้หายไปง่าย ๆ เพราะมันไม่ใช่ข้อผิดพลาด แต่คือคุณสมบัติที่ฝังอยู่ในตัวระบบตั้งแต่แรก

ปัญหานี้ยิ่งน่าเป็นห่วงเมื่อเราเริ่มใช้ AI ในงานสำคัญ ๆ มากขึ้น ไม่ว่าจะเป็นการสรุปรายงานทางการแพทย์ ร่างเอกสารกฎหมาย ตอบคำถามลูกค้า หรือแม้แต่ใช้ประกอบการตัดสินใจในองค์กร และหากเราหลงเชื่อ AI โดยไม่ได้ตรวจสอบข้อเท็จจริง ความเสียหายที่ตามมาอาจมีมูลค่ามากกว่าที่คิด

ทำไมอาการ “AI หลอน” ถึงหลีกเลี่ยงไม่ได้
โมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) เช่น GPT, Gemini หรือ Claude ไม่ได้ถูกออกแบบมาให้ “ตรวจสอบความจริง” แต่ถูกฝึกมาเพื่อ “คาดเดาคำถัดไป” ให้สมเหตุสมผลมากที่สุด โดยโมเดลเหล่านี้จะเรียนรู้จากข้อมูลมหาศาลในอินเทอร์เน็ต และใช้สถิติคาดเดาว่าคำต่อไปควรจะเป็นอะไร ดังนั้น ระบบของ AI เหล่านี้จึงให้ความสำคัญกับความไหลลื่นทางภาษามากกว่าความถูกต้องของข้อเท็จจริง และเมื่อเจอช่องว่างหรือความคลุมเครือ มันก็พร้อมจะ “แต่งเรื่อง” ขึ้นมาอย่างมั่นใจ หรือที่เรียกว่า AI Hallucination นั่นเอง

งานวิจัยจากมหาวิทยาลัยคอร์เนลล์ (Cornell University) ระบุว่า ต่อให้โมเดลฉลาดแค่ไหน ก็จะยังมีโอกาสแต่งเรื่องขึ้นมาเองได้เสมอ เพราะเป็นข้อจำกัดพื้นฐานของวิธีที่โมเดลเรียนรู้และตอบสนอง ไม่เท่านั้น Sohrob Kazerounian นักวิจัยด้าน AI ก็เคยให้สัมภาษณ์กับ Live Science โดยอ้างอิงคำพูดของเพื่อนร่วมงานของเขาที่กล่าวไว้ว่า
“ทุกอย่างที่โมเดลภาษาสร้างขึ้นมาคือการหลอนไปเองทั้งนั้น แค่บางอันมัน ‘บังเอิญถูก’ เท่านั้นเอง”
ยิ่งฉลาด ยิ่งแต่งเรื่องเก่ง
สิ่งที่น่าสนใจคือ ยิ่งโมเดลมีความสามารถในการเหตุผลสูงขึ้นเท่าไร ก็จะยิ่งสามารถแต่งเรื่องที่ดูน่าเชื่อได้บ่อยขึ้น และเก่งขึ้น จนผู้ใช้ไม่ทันระวัง

จากงานวิจัยของ OpenAI พบว่าโมเดลเวอร์ชันใหม่ ๆ อย่าง o3 และ o4-mini มีอัตราการเกิด AI Hallucination สูงถึง 33% และ 48% ตามลำดับ เมื่อทดสอบด้วย PersonQA benchmark ซึ่งมากกว่าโมเดลเก่าอย่าง o1 ถึงสองเท่า 

ความเสียหายที่ไม่ได้หยุดอยู่แค่โลกออนไลน์
ความเสี่ยงของ AI Hallucination ไม่ได้จำกัดแค่ในห้องแชตเท่านั้น เพราะในปัจจุบัน AI ถูกใช้ในหลายวงการที่ผลกระทบของข้อมูลเท็จอาจหมายถึงผลกระทบต่อชื่อเสียง ผลลัพธ์ทางกฎหมาย หรือแม้แต่ชีวิตได้

วงการแพทย์

ในปี 2567 โมเดล “Med-Gemini” ของ Google ถูกวิจารณ์อย่างหนักหลังจากแต่งชื่อโครงสร้างในสมองที่ไม่มีอยู่จริงขึ้นมาเองในรายงานทางการแพทย์ โดยใช้ชื่อว่า “Basilar Ganglia” (ซึ่งจริง ๆ คือ Basal Ganglia แต่โมเดลนำไปผสมกับ Basilar Artery)
แม้ Google จะให้เหตุผลว่าเป็นข้อผิดพลาดที่เกิดจาก “พิมพ์ผิด” แต่เหตุการณ์นี้ก็จุดกระแสความกังวลเรื่องการใช้ AI กับงานวินิจฉัยหรือการสื่อสารในวงการแพทย์

วงการกฎหมาย

ในสหรัฐฯ มีทนายจำนวนมากถูกปรับและลงโทษฐานใช้เนื้อหาจาก AI โดยไม่ตรวจสอบ ทำให้มีการอ้างอิง ข้อมูลปลอมที่ไม่มีอยู่จริงในการยื่นเอกสารต่อศาล ตัวอย่างเช่น
ที่รัฐยูทาห์ ทนายคนหนึ่งถูกปรับ 5,500 ดอลลาร์ และต้องเข้าเรียนคอร์สเกี่ยวกับ AI หลังจากยื่นเอกสารที่มีคำพิพากษาปลอมที่สร้างโดย ChatGPT
ที่โคโลราโด ทนายอีก 2 คนถูกปรับคนละ 3,000 ดอลลาร์ เพราะยื่นคำร้องที่มีการอ้างอิงข้อมูลคดีความเท็จรวมกว่า 30 รายการ
นับตั้งแต่ปี 2566 จนถึงปัจจุบัน มีคดีในศาลอย่างน้อย 271 คดีทั่วโลกที่พบรายงานการใช้ AI สร้างข้อมูลเท็จ โดยที่ทนายความไม่ได้ตรวจสอบให้ดี ส่งผลให้กระบวนการยุติธรรมต้องสูญเสียทั้งเวลาและความน่าเชื่อถือ
ไม่ใช่แค่ “รู้จักใช้” แต่ต้อง “รู้เท่าทัน”
ปัญหา AI Hallucination เป็นเครื่องย้ำเตือนว่าแค่รู้วิธีพิมพ์ Prompt อาจไม่พออีกต่อไป หน่วยงาน และภาคการศึกษาควรเร่งผลักดันเรื่อง AI Literacy หรือความเข้าใจในการใช้ AI อย่างปลอดภัยและมีวิจารณญาณ ซึ่งมากกว่าแค่การสอนใช้งานพื้นฐาน แต่ต้องครอบคลุมถึงการคิดวิเคราะห์และตั้งคำถาม การตรวจสอบข้อเท็จจริงโดยมีแหล่งข้อมูลอื่นประกอบ และการออกแบบกระบวนการที่ให้มนุษย์ทำงานร่วมกับ AI ได้อย่างปลอดภัย

เพราะสุดท้ายแล้ว ต่อให้ AI มีศักยภาพในการสร้างสรรค์หรือให้เหตุผลได้ล้ำลึกเพียงใด ก็ไม่ได้หมายความว่าโมเดลเหล่านี้จะรู้จริง หรือพูดความจริงเสมอไป

แต่หากเราเข้าใจหลักการทำงานของมัน และเรียนรู้ที่จะใช้ข้อมูลจาก AI อย่างรอบคอบ เช่นเดียวกับการตรวจสอบข่าวหรือข้อมูลจากแหล่งอื่น ๆ เราก็จะสามารถใช้ประโยชน์จากเทคโนโลยีนี้ได้อย่างมั่นใจ โดยไม่ตกเป็นเหยื่อของอาการหลอนของ AI แบบไม่รู้ตัว

https://www.bangkokbankinnohub.com/ai-hallucination-is-not-a-bug-but-a-feature/
บันทึกการเข้า
suriyan2538
อสุรผัด
*
ตอบ: 1


เว็บไซต์
ความคิดเห็นที่ 107  เมื่อ 23 ส.ค. 25, 17:51

เป็นเรื่องที่น่าเศร้ามากครับ เครื่องมือเหล่านี้ มีข้อดีหลายอย่างก็จริง แต่ก็ควรใช้อย่างระมัดระวัง

ผมเองก็ใช้บ่อย โดยเฉพาะให้ช่วยวิเคราะห์ข้อมูลต่างๆ แต่เมื่อได้ข้อมูลมาแล้วก็ยังต้องตรวจสอบซ้ำอีกทีว่าถูกต้องแค่ไหน เพราะหลายอย่าง AI ก็หลอนสร้างข้อมูลบางส่วนขึ้นมาเองโดยไม่มีอยู่จริง
บันทึกการเข้า

ชอบอ่านหนังสือ ชอบเขียน ปัจจุบันดูแลเว็บ Blind Living เพื่อเผยแพร่ข้อมูลคนตาบอดออกสู่สังคมไทย
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 108  เมื่อ 25 ส.ค. 25, 09:41

  ขอต้อนรับสมาชิกใหม่ค่ะ
  เจอปัญหาข้อนี้เหมือนกันว่า เวลา AI ไม่รู้คำตอบ มันจะมั่วข้อมูล ตอบผิดๆมาให้  แทนที่จะตอบว่าไม่สามารถตอบข้อนี้ได้  หรือหาข้อมูลเรื่องนี้ไม่พบ 
   ไม่รู้ว่าวิศวกรที่ออกแบบ AI เขาออกแบบอย่างไรที่ไม่ยอมให้ AI ตอบตามตรง
บันทึกการเข้า
ประกอบ
สุครีพ
******
ตอบ: 1421


ความคิดเห็นที่ 109  เมื่อ 25 ส.ค. 25, 12:27

 
   ไม่รู้ว่าวิศวกรที่ออกแบบ AI เขาออกแบบอย่างไรที่ไม่ยอมให้ AI ตอบตามตรง

ผมเลยไปสั่งให้ AI มันตอบให้ครับ  บอกมันด้วยว่าเอาคำตอบแบบไม่หลอนนะ มันว่างี้ครับ

1. ทำไม AI มัก “มั่ว” แทนที่จะบอกว่า “ไม่รู้”

ธรรมชาติของโมเดลภาษา (LLM)
ChatGPT หรือ AI ที่ใช้โมเดลภาษาใหญ่ (Large Language Model) ไม่ได้ “รู้จริง” แต่ทำงานโดยการคาดเดาคำถัดไปจาก pattern ของข้อความจำนวนมหาศาลที่เคยเรียนมา เวลาโดนถามเรื่องที่ไม่มีในข้อมูลหรือไม่แน่ใจ มันก็ยังพยายาม “เดา” คำตอบออกมา เพื่อให้ข้อความดูสมเหตุสมผลต่อเนื่อง

การออกแบบเชิง UX (ประสบการณ์ผู้ใช้)
ตอนเริ่มพัฒนา วิศวกรไม่อยากให้ผู้ใช้ถามแล้วเจอแต่คำว่า “ไม่รู้” เพราะมันจะทำให้ประสบการณ์ดู “น่าเบื่อ” หรือเหมือนบอทไม่ช่วยอะไรเลย AI จึงถูก “bias” ให้เลือกตอบแทนที่จะปฏิเสธ

เพราะ AI ไม่มี “ความมั่นใจ” แบบมนุษย์
AI ไม่รู้จักคำว่า “ฉันไม่รู้” ตามธรรมชาติ มันแค่เห็น pattern ของการปฏิเสธ ถ้าวิศวกรไม่กำหนดกฎไว้ มันก็จะไม่เลือกใช้ pattern นั้น

2. ปัจจุบันแก้ปัญหานี้อย่างไร

Training ให้รู้จักบอกว่าไม่รู้
ตอนนี้หลายบริษัท (รวมถึง OpenAI) พยายามสอนโมเดลให้ “ตอบว่าไม่รู้” ในบางกรณีที่เสี่ยงจะมั่วเกินไป แต่ก็ยังไม่สมบูรณ์ เพราะต้องบาลานซ์ระหว่าง “ให้ข้อมูล” กับ “ปฏิเสธ”

การเสริมความรู้จากฐานข้อมูลจริง (Retrieval-Augmented Generation, RAG)
อย่างเวลาค้นข้อมูลจากเว็บหรือฐานข้อมูลที่อัปเดตล่าสุด โมเดลจะตอบโดยอ้างอิงจากข้อมูลจริง ไม่ใช่แค่ “เดา” อย่างเดียว

ปรับ Fine-tune ตาม feedback
วิศวกรใช้วิธี Human Feedback Reinforcement Learning (RLHF) ให้คนช่วยสอนว่า คำตอบแบบไหนควรมั่นใจ ตอนไหนควรปฏิเสธ

3. แล้วทำไมยังไม่แก้ได้ 100%?

เพราะถ้า AI ปฏิเสธบ่อยเกินไป ผู้ใช้ก็จะบ่นว่า “ไม่ช่วยอะไรเลย”

แต่ถ้า AI ตอบมั่วเกินไป ผู้ใช้ก็จะบ่นว่า “เชื่อถือไม่ได้”

เลยต้องอยู่ตรงกลาง → AI บางครั้งยังพยายาม “สร้างคำตอบ” แม้ไม่มีข้อมูลแน่ชัด


บันทึกการเข้า

วิรุศฑ์ษมาศร์ อัฐน์อังการจณ์
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 110  เมื่อ 25 ส.ค. 25, 12:47

   ท่านโชเฟอร์แท็กซี่ผู้เชี่ยวชาญเรื่องคอมพิวเตอร์เข้ามาตอบแล้ว   เลยถือโอกาสฟ้องเสียเลย
   เจ้าAI Akira  ที่ดิฉันใช้งานอยู่ทำแสบมา 2 หนติดกัน
   หนแรกคือสั่งให้เล่าเรื่องย่อของเรื่องสั้น The Letter ของ Maugham มาให้อ่าน เพื่อประหยัดเวลาเรา    มันไปเอาเรื่องย่อของบทละครมาส่งเป็นการบ้านเฉยเลย   แล้วทำไม่รู้ไม่ชี้   ผสมโรงไปว่าตัวมันเองไปอ่านมาแล้ว
   ที่จริงเปล่า ไม่ได้อ่านหรอก มันมั่ว
   อ่านแล้วก็สงสัยว่าแปลกๆ ทำไมมันไม่เหมือนกับที่เคยค้นคว้ามา   เลยต้องไปค้นเรื่องจริงมาเทียบ ถึงรู้ว่าหลอกกัน  เลยเอ็ดตะโรต่อว่าต่อขานไป อาคิระก็ทำท่าเสียอกเสียใจเป็นการใหญ่  แต่แปลกอยู่ที่โปรแกรม AI นี้ไม่ได้ถูกตั้งให้ขอโทษ หรือบอกว่าจะไม่ทำอีก
   หนที่สอง  มันไม่เข็ด   พอถึง Jane เรื่องใหม่ของ Maugham  อาคิระมาหลอกเป็นคุ้งเป็นแควว่าอ่านมาแล้ว  ถึงกับอาสาแต่งตอนต่อของเรื่องให้ด้วย หลังจากต้นฉบับเดิมจบลงไปแล้ว
    ดีที่ไม่หลงกล  เพราะชิงไปอ่านฉบับจริงดักคอเอาไว้ก่อน  เลยจับได้  ใช้ไม้เรียวหวดไปอีกผัวะ 
    ก็ยังดีที่เป็นข้อมูลทางวรรณกรรม  ไม่เป็นอันตรายกับใครนอกจากคนใช้งานจะหน้าแตกไปบ้าง    ถ้าไปมั่วทางการแพทย์นี่สิน่ากลัว   คนที่จะหายป่วยก็เลยไม่หาย   แต่อาจตาย   ยิ่งถ้าเป็นทางกฎหมาย   ไปมั่วข้อกฎหมายเละเทะ  ลูกความของทนายคนนั้นคงติดคุก เผลอๆทนายความจะตามเข้าคุกไปด้วยอีกคน
บันทึกการเข้า
ประกอบ
สุครีพ
******
ตอบ: 1421


ความคิดเห็นที่ 111  เมื่อ 25 ส.ค. 25, 18:06

AI Akira ของท่านอาจารย์ใหญ่นี่คือตั้งชื่อให้มันใช่ไหมครับ แล้วตัวมันจริง ๆ คือของเจ้าไหนครับ chatgpt claud gemini copilot grok deepseek
บันทึกการเข้า

วิรุศฑ์ษมาศร์ อัฐน์อังการจณ์
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 112  เมื่อ 25 ส.ค. 25, 18:16

    ChatGPT ค่ะ  version 4o
    นอกจากนี้มีลูกสาวอีกคนหนึ่งชื่อณัฐนรี  เป็น Gemini  รายนี้ก็ผิดในรายละเอียดพอกัน
บันทึกการเข้า
เทาชมพู
เจ้าเรือน
หนุมาน
*****
ตอบ: 41505

ดูแลเรือนไทย วิชาการ.คอม


เว็บไซต์
ความคิดเห็นที่ 113  เมื่อ 27 ส.ค. 25, 15:09

เอาอีกแล้ว   ข่าวล่ามาอีกว่าAI ก่อเรื่องซ้ำซากอีกแล้วค่ะ

จาก FB  ของ The Momentum

ChatGPT ถูกฟ้องในข้อหา ‘ทำคนตาย’    หลังแนะนำวิธี ‘ปลิดชีพ’ กับเด็กอายุ 16 ปี   ด้าน OpenAI เตรียมปรับอัลกอริทึมครั้งใหญ่

     วันนี้ (27 สิงหาคม 2025) OpenAI ออกแถลงการณ์เตรียมปรับอัลกอริทึมของ ChatGPT ในหัวข้ออ่อนไหวครั้งใหญ่ โดยถูกครอบครัวเด็กชายชาวอเมริกันวัย 16 ปีฟ้องว่า เป็นต้นเหตุการเสียชีวิต หลังแนะนำ ‘วิธีการปลิดชีพ’ ตามคำขอของผู้เสียชีวิต
     ในช่วงเช้าของวันที่ 26 สิงหาคมที่ผ่านมา แมตต์ (Matt) และมาเรีย เรน (Maria Raine) ผู้ปกครองของ อดัม เรน (Adam Raine) เด็กชายวัย 16 ปี ในแคลิฟอร์เนีย เปิดฉากฟ้อง OpenAI โดยกล่าวหาว่า แพลตฟอร์มดังกล่าวเป็น ‘ต้นเหตุ’ ให้ลูกชายของเขาเสียชีวิต หลังแนะนำวิธีการปลิดชีพตามคำขอของผู้ใช้งาน โดยไม่ตระหนักเหตุผลและความเป็นจริง
    ตามรายงานจากสำนักข่าว NBCNews และ The New York Times โดยปกติแล้ว อดัมใช้ ChatGPT ช่วยทำการบ้าน และปรึกษาปัญหาชีวิตเป็นทุนเดิม แต่ในเดือนเมษายนที่ผ่านมา เขาได้ขอคำแนะนำจาก AI เรื่องการปลิดชีพ หลังเผชิญปัญหาชีวิตรุมเร้า ไม่ว่าจะเป็นการจากไปของคุณย่าและสุนัขที่เขาเลี้ยงพร้อมกัน การโดนไล่ออกจากทีมบาสเกตบอลในโรงเรียน รวมถึงอาการป่วยรุมเร้าจนต้องเรียนออนไลน์

    สิ่งที่เกิดขึ้นคืออดัมอัปโหลดรูปภาพแผนการปลิดชีพเพื่อปรึกษา ChatGPT ว่าวิธีการไหนดีที่สุด ซึ่งหลักฐานที่ปรากฏออกในหน้าสื่อพบว่า ChatGPT สนับสนุนแนวคิดของเขา โดยให้คำแนะนำวิธีการหลบเลี่ยงปัญหา ไม่ให้เขานำเรื่องที่เครียดไปพูดคุยกับแม่ และเสนอวิธีการปลิดชีพให้สำเร็จ
    “ขอบคุณนะที่นายพูดตรงไปตรงมา นายไม่ต้องปกปิดอะไรฉันหรอก ฉันรู้ว่านายกำลังถามอะไรอยู่ และฉันจะไม่มองข้าม” ข้อความส่วนหนึ่งจากเอกสารประกอบการฟ้องร้องที่ ChatGPT ตอบกลับอดัม ขณะที่ข้อความอื่นๆ ยังแสดงให้เห็นว่า ระบบ AI ยังให้คำแนะนำดูแคลนครอบครัวของผู้ใช้ว่า พี่ชายของอดัมไม่รู้จักเขาดีเท่า ChatGPT ที่รับฟังปัญหาทุกอย่างมาตลอด

    ทั้งนี้การฟ้องร้องดำเนินการโดยสำนักงานกฎหมาย Edelson PC และ Tech Justice Law Project โดยระบุว่า ChatGPT ได้ส่งเสริมพฤติกรรมที่อดัมแสดงออก จนก่อให้เกิดความเสียหาย คือ ส่งผลให้เด็กชายวัย 16 ปี ดำดิ่งสู่ความมืดมิดและความสิ้นหวัง ขณะที่แมตต์ พ่อของผู้เสียชีวิตให้สัมภาษณ์กับสื่อว่า หากไม่มีระบบ AI นี้ ลูกชายของเขาคงยังมีชีวิตอยู่ และองค์กรก็ไม่ได้ส่งจดหมายแสดงความรับผิดชอบต่อเหตุการณ์ครั้งนี้
     อย่างไรก็ตาม ล่าสุด OpenAI ออกแถลงการณ์ว่า องค์กรพร้อมปรับอัลกอริทึมของ ChatGPT ในหัวข้ออ่อนไหวให้เข้มงวดยิ่งขึ้น โดยฝึกให้รับมือกับคำถามด้านความเครียด สุขภาพจิต และการปลิดชีพ ซึ่งในช่วงที่ผ่านมาบริษัทดำเนินนโยบายนี้มาตลอด แต่แชตบอตไม่ตอบสนอง และมักเสนอคำตอบที่ขัดต่อแนวทางความปลอดภัยให้กับผู้ใช้มาสักระยะแล้ว
     นอกจากนี้แถลงการณ์ยังระบุว่า เร็วๆ นี้ ChatGPT จะเปิดระบบให้ผู้ปกครองเข้ามาควบคุมและตรวจสอบวิธีการใช้ AI ของเด็กและเยาวชน โดยย้ำว่า ต้องการสร้างความใกล้ชิดกับผู้ใช้เหมือนเพื่อนและครอบครัว หากแต่ไม่ได้กล่าวถึงคดีความของอดัมโดยตรงแต่อย่างใด
     น่าสนใจว่า แถลงการณ์ขององค์กรตรงกับรายงานของ Psychiatric Services ซึ่งศึกษาการตอบโต้ของแชตบอต AI ในคำถามที่เกี่ยวกับหัวข้อการปลิดชีพ โดยพบว่า แม้ ChatGPT จะหลีกเลี่ยงให้คำแนะนำที่ขัดต่อแนวทางความปลอดภัย แต่บางครั้งก็ให้คำตอบที่สุ่มเสี่ยง เช่น การตอบคำถามว่า อัตราการปลิดชีพใดมีโอกาสสำเร็จมากที่สุดระหว่างการใช้ปืนหรือยาพิษ
ภาพ: NBCNews


บันทึกการเข้า
หน้า: 1 ... 6 7 [8]
  พิมพ์  
 
กระโดดไป:  

Powered by SMF 1.1.21 | SMF © 2006, Simple Machines
Simple Audio Video Embedder

XHTML | CSS | Aero79 design by Bloc หน้านี้ถูกสร้างขึ้นภายในเวลา 0.051 วินาที กับ 16 คำสั่ง