Tags:
Node Thumbnail

OpenAI ออกมาเขียนบล็อกชี้แจงกรณี The New York Times (NYT) ยื่นฟ้องละเมิดลิขสิทธิ์ โดยระบุว่าเป็นบั๊กที่เกิดได้ยากแล้ว และกำลังแก้ไขให้ไม่มีเหตุการณ์แบบนี้อีก พร้อมกับยืนยันว่าต้องการเป็นพันธมิตรกับสำนักข่าวต่างๆ

คำชี้แจงของ OpenAI ยืนยันว่าการใช้เนื้อหาในงานมีลิขสิทธิ์เช่นข่าวต่างๆ มาฝึกปัญญาประดิษฐ์นั้นเป็นการใช้งานอย่างเป็นธรรม (fair use - ข้อยกเว้นการใช้งานมีลิขสิทธิ์ในบางกรณี ซึ่งได้รับรองสิทธิ์ไว้ในกฎหมายทรัพย์สินทางปัญญาของสหรัฐฯ) แม้ว่าประเด็นนี้ยังมีการถกเถียงกันอยู่บ้าง แต่ OpenAI ก็ออกมาชี้ว่ามีกลุ่มต่างๆ สนับสนุนให้ตีความว่าการใช้ข้อมูลเพื่อฝึกปัญญาประดิษฐ์นั้นเป็นการใช้งานอย่างเป็นธรรม พร้อมกับระบุว่าทาง OpenAI เองเปิดทางให้สำนักข่าวปฎิเสธไม่ให้นำข้อมูลมาฝึกได้ทั้งที่ไม่ได้ถูกบังคับตามกฎหมาย

สำหรับกรณีที่ ChatGPT ตอบกลับบทความทั้งชุด (Regurgitation) นั้นทาง OpenAI มองว่าเป็นบั๊กและกำลังเพิ่มมาตรการเพื่อไม่ให้มีเอาท์พุตแบบนี้อยู่ ส่วนตัวอย่างที่ NYT ใช้ฟ้องนั้น OpenAI ระบุว่า NYT แจ้งเพียงว่าพบเหตุ ChatGPT ตอบกลับบทความแต่ไม่ยอมบอกตัวอย่างให้ตรวจสอบ และตัวบทความที่ยกอย่างมาก็เป็นบทความเก่าที่มีการทำสำเนาไปยังเว็บอื่นๆ นอก NYT จำนวนมาก ทาง OpenAI ยังเชื่อว่า prompt ที่ใช้น่าจะจงใจอย่างมากที่จะให้ ChatGPT ตอบกลับทั้งบทความออกมา หลายครั้งอาจจะใส่ตัวอย่างเนื้อหาในบทความเข้าไปใน prompt แต่แรก

ที่มา - OpenAI

Get latest news from Blognone

Comments

By: darkleonic
Contributor Android WindowsIn Love
on 9 January 2024 - 11:45 #1302901
darkleonic's picture

ผลงานที่สร้างโดยมนุษย์ ตรวจ Plagiarism ไล่บี้กันแทบตาย แต่พอเป็น AI ดันบอกว่าให้ Fair Use เนี่ยนะ....


I need healing.

By: marryboomz
Windows
on 9 January 2024 - 12:38 #1302904

บางเว็บเอาบทความจากเว็บต้นทางต่างประเทศมาแปลเป็นไทยยังเอามาแปลหมดไม่ได้เลย แปลได้แค่บางส่วน มีสิบย่อหน้าเอามาได้แค่ย่อหน้าเดียวแต่ AI บอกเอามาหมดได้ คนเขียนบทความแปลจากเว็บต่างประเทศมีมองบนล่ะ

By: chieffy on 10 January 2024 - 09:04 #1302998

สมมุติว่าตัวละครโดเรม่อนกับ AI 2 ตัว
ตัวที่ 1 AI รู้จักโดเรมอน ปฏิเสธการสร้างรูปโดเรมอนได้
ตัวที่ 2 AI ไม่รู้จักโดเรมอน แต่สร้างรุปโดเรมอนได้

คำถามคือมันรู้จักโดเรมอนได้อย่างไร แล้วตัวไหนที่ผู้พัฒนาควรรับผิด

ตราบใดที่ยังเป็น LLM และเป็นสิ่งที่ต้องรับข้อมูลไปประมวลผลในตัว การจะรู้ผิดรู้ถูก ก็เกิดการกระทำผิดในความหมายของมนุษย์แล้ว

By: iqsk131 on 10 January 2024 - 12:34 #1303035 Reply to:1302998

เข้าใจว่าเรื่องพวกนี้ผิดหรือไม่เป็นเรื่องของเจตนา แต่ไม่ว่าอย่างไรเบื้องต้นคือไม่ว่าเคสไหนผู้ให้บริการจะต้องถูกสอบสวนก่อนเสมอครับ จากนั้นผู้ให้บริการก็ต้องไปพิสูจน์เจตนาตัวเองให้ได้ว่าไม่ได้ละเมิดลิขสิทธิ์และอธิบายให้ได้ว่ามันเกิดขึ้นได้อย่างไรถึงจะพ้นผิดได้

แต่ถึงจะพ้นผิดก็ไม่ใช่ว่าไม่ต้องทำอะไรหรือไม่ต้องชดใช้ความเสียหายนะ ผู้ให้บริการก็ต้องดำเนินการจัดการและมีมาตรการในการรับมือด้วย (เช่น ลบเนื้อหาออกและเพิ่มมาตรการป้องกันต่างๆ) รวมถึงชดใช้ความเสียหายก็เป็นเคสๆไปด้วย

ซึ่งเอาจริงๆมันก็ทำนองเดียวกับผู้ให้บริการ cloud ที่มีการอัพโหลดคอนเทนต์ละเมิดลิขสิทธิ์หรือคอนเทนต์ผิดกฎหมายนั่นแหละครับ แค่มันพิสูจน์ยากกว่านิดนึงเพราะพวกนั้นมันเห็นกันโต้งๆเลย

By: chieffy on 28 February 2024 - 00:50 #1306591 Reply to:1303035

เรื่องนั้นน่ะเข้าใจครับ แต่อาจจะต่างกับกรณี cloud ตรงที่ว่าปัญหาที่เกิดไม่ใช่เพียงแค่ข้อสงสัยหรือข้อกล่าวหาเพียงเท่านั้น แต่มีเรื่องแฝงการโจมตีที่ตัวองค์กรอย่างจงใจอยู่ด้วย มันไม่ใช่เรื่องใสซื่อที่เป็นความรับผิดชอบของผู้ให้บริการอย่าง OpenAI เท่าน้้น มันกลายเป็นการใช้ Ethic AI ที่ไร้จริยธรรมไปแล้ว ก่อนบทความนี้ออก เราเคยได้ยินสื่อที่ไหนพูดถึงการยกฟ้องคดีเหล่านั้นบ้าง ผมเองตรวจสอบข่าวสารและรายงานพฤติกรรมที่แปลกประหลาดกับสิ่งที่เกิดขี้นจนเป็นสิ่งที่สันนิษฐานว่าเป็นการนำเอา OpenAI มาเป็นคอนเทนต์ Ethic AI เพราะองค์กรไม่เคยที่จะดำเนินการกับการเผยแพร่เนื้อหาที่ละเมิด คุณคิดว่า AI 10 อันดับแรกมีคนใช้งานกี่คนแต่ทำไมมี AI เพียงตัวเดียวที่มีปัญหานี้ ตั้งแต่การนำผลการใช้งานที่ AI สร้างมาอ้างฟ้องร้อง การนำไปใช้ทำคอนเทนต์ชี้ช่องละเมิดกฏหมายโดยลงรายละเอียดที่นำไปใช้ได้เลย การนำไปเขียนรวมกับข่าวดีฟเฟคก็ยังมี เรื่องการปิดเบือนข่าวกันเป็นทอด หรือข่าวผลการวิจัยที่บิดเบือน วันนี้ผมยังเจอการสร้างคอนเทนต์ที่ไร้เหตุผลและเอาข่าวเก่าขึ้นมาเขียน จนถึงการใช้เทคนิคการนำเสนอทางจิตวิทยาให้คนเข้าใจผิดเป็นสำนักข่าวใหญ่ในประเทศไทยนี่แหละ

เคยมีคนบอกคุณไหมว่า OpenAI มีระบบตรวจสอบข้อมูลตั้งแต่ยังไม่ส่งเป็นระบบความปลอดภัยในขณะที่ AI อื่นไม่มี และปัจจุบัน OpenAI เลือกที่จะไม่ใช้ข้อมูลจากภายนอกในการฝึกฝน แต่ทำไมเรายังได้ยินแต่ข่าวเสียหายจาก OpenAI ลองคิดดู