AI the Series ตอนที่ 3 AI ในที่ทำงาน: เมื่อความสะดวกมาพร้อมความเสี่ยงทางกฎหมายที่องค์กรต้องรับผิดชอบ

(English below)

ในยุคนี้ เครื่องมือ Generative AI อย่าง ChatGPT, Gemini หรือ Midjourney กลายเป็นเครื่องมือสามัญประจำบ้านของคนทำงาน เพราะช่วยเพิ่มประสิทธิภาพและลดระยะเวลาในการทำงานได้อย่างมาก จนในบางทีอาจเกิดปรากฏการณ์ที่เรียกว่า “Shadow AI” ที่พนักงานแอบนำ AI มาใช้ในการทำงานโดยที่องค์กรอาจยังไม่ได้รับรู้หรือมีนโยบายรองรับเพื่อแก้ปัญหาที่อาจเกิดขึ้นในอนาคต

อย่างไรก็ตาม ความสะดวกรวดเร็วจากการใช้ AI อาจแลกมาด้วยความเสี่ยงทางกฎหมายที่คาดไม่ถึง หากองค์กรละเลยหรือไม่เร่งวางมาตรการควบคุม ตัวช่วยอาจกลายเป็นตัวปัญหาที่สร้างความเสียหายมากกว่าการอำนวยความสะดวก

วันนี้ พวกเรา Prom Legal Solution สรุป 3 ประเด็นกฎหมายสำคัญที่ผู้บริหารและฝ่าย HR ต้องรู้ ก่อนที่ AI จะสร้างปัญหาให้กับองค์กร

ประเด็นแรก ข้อมูลความลับทางการค้าและข้อมูลส่วนบุคคล

พฤติกรรมที่เสี่ยงที่สุดและเกิดขึ้นบ่อยที่สุด คือ การที่พนักงานนำข้อมูลสำคัญ เช่น ข้อมูลลูกค้า สรุปการประชุมภายใน อัปโหลดลงในช่อง Prompt ของ AI เพื่อให้ AI ช่วยสรุปใจความ ร่างอีเมล หรือวิเคราะห์ข้อมูลต่างๆ

การกระทำดังกล่าวสร้างความเสี่ยงทางกฎหมาย ใน 2 แนวทาง คือ

  • หากข้อมูลที่นำไปประมวลผล มีข้อมูลส่วนบุคคลของลูกค้าหรือพนักงานรวมอยู่ด้วย การส่งข้อมูลเหล่านั้นไปประมวลผลบน Server ของ AI (ซึ่งส่วนใหญ่อยู่ในต่างประเทศ) โดยไม่มีฐานกฎหมายรองรับ อาจถือเป็นการละเมิด พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคลฯ (PDPA) ซึ่งมีโทษทั้งทางแพ่ง อาญา และปกครอง
  • ตามกฎหมาย หากต้องการให้ข้อมูลที่จะได้รับความคุ้มครอง เป็นความลับทางการค้า ต้องเป็นข้อมูลที่ไม่เปิดเผยเป็นการทั่วไป แต่แพลตฟอร์ม AI หลายช่องทาง มีข้อกำหนดการใช้งานที่ระบุว่าอาจนำข้อมูลที่ผู้ใช้ป้อนเข้าไปไปใช้ในการเทรนโมเดลต่อได้ การที่พนักงานป้อนข้อมูลลับลงไป จึงเท่ากับเป็นการ “เปิดเผย” ข้อมูลนั้นสู่สาธารณะโดยปริยาย หากคู่แข่งดึงข้อมูลนั้นไปใช้ เราอาจเสียสิทธิในการฟ้องร้องตามกฎหมายทันที

ประเด็นสอง การสร้างภาพประกอบโดย AI กับเรื่องกฎหมายลิขสิทธิ์

เมื่อทีมกราฟิกใช้ AI สร้างภาพประกอบโฆษณา หรือทีมโปรแกรมเมอร์ใช้ AI ช่วยเขียน Code ปัญหาทางกฎหมายที่ตามมาคือเรื่อง “ลิขสิทธิ์”

กฎหมายลิขสิทธิ์ไทยและสากลคุ้มครองงานที่สร้างโดย “มนุษย์” เป็นหลัก หากพิสูจน์ได้ว่างานชิ้นนั้น AI ทำเอง 100% โดยคนแทบไม่ได้ออกแรงสร้างสรรค์ งานนั้นอาจไม่มีลิขสิทธิ์ แปลว่าคู่แข่งสามารถ Copy งานเราไปใช้ได้ฟรีๆ โดยที่เราทำอะไรไม่ได้เลย และ AI เรียนรู้จากข้อมูลมหาศาลในอินเทอร์เน็ต ทำให้ภาพที่ถูก Generated ออกมามีความเสี่ยงสูงที่จะไปคล้ายกับผลงานที่มีลิขสิทธิ์ของคนอื่นโดยบังเอิญ หากเรานำงานนั้นไปใช้เชิงพาณิชย์ บริษัทจะมีความเสี่ยงที่จะตกเป็นจำเลยฐานละเมิดลิขสิทธิ์

ประเด็นสาม เมื่อ AI ทำพลาด องค์กรต้องรับผิด

ในปัจจุบัน แม้ AI จะถูกพัฒนาให้เป็นเครื่องมือในการค้นคว้าหาข้อมูล หรือตอบคำถามเฉพาะเรื่องที่มีประสิทธิภาพมากกว่าเมื่อก่อนมาก แต่ก็ยังมีข้อจำกัดเรื่องความถูกต้องของข้อมูล หาก AI ให้ข้อมูลที่ผิดพลาด แล้วพนักงานนำข้อมูลนั้นไปส่งต่อให้ลูกค้าโดยไม่ตรวจสอบ จนลูกค้าได้รับความเสียหาย องค์กรก็มีความรับผิดชอบที่จะต้องรับผิดชอบในความเสียหายดังกล่าว

ในทางกฎหมาย องค์กรไม่สามารถปฏิเสธความรับผิดโดยอ้างว่า “AI เป็นคนทำ” ได้ ตามประมวลกฎหมายแพ่งและพาณิชย์ มาตรา 425 นายจ้างต้องร่วมรับผิดกับลูกจ้างในผลแห่งละเมิดที่ลูกจ้างได้กระทำไปในทางการที่จ้าง การที่พนักงานใช้เครื่องมือ (AI) อย่างประมาทเลินเล่อโดยไม่ตรวจสอบความถูกต้อง ย่อมถือเป็นความผิดของพนักงาน และนายจ้างต้องร่วมรับผิดชอบค่าเสียหายนั้นอย่างหลีกเลี่ยงไม่ได้

AI เป็นเครื่องมือทุ่นแรงที่ดี สำหรับการทำงาน ช่วยประหยัดเวลาได้มาก แต่การนำมาใช้ในองค์กร ก็ควรจะต้องอยู่บนพื้นฐานของ “การกำกับดูแล (Governance)” ที่รัดกุม องค์กรไม่ควรปล่อยให้การใช้ AI เป็นเรื่องของวิจารณญาณส่วนบุคคล

ทางออกที่ดีที่สุดคือ การเร่งจัดทำ นโยบายการใช้งาน AI (AI Acceptable Use Policy)” ที่ชัดเจน ระบุประเภทข้อมูลที่ห้ามป้อนลงใน AI สาธารณะโดยเด็ดขาด กำหนดมาตรการ “Human in the Loop” ที่บังคับให้ทุกผลลัพธ์จาก AI ต้องผ่านการตรวจสอบโดยมนุษย์ก่อนนำไปใช้งานจริง รวมถึงพิจารณาลงทุนใช้ AI ในเวอร์ชันสำหรับองค์กรที่มีสัญญาคุ้มครองข้อมูลที่ดีกว่า

การวางรากฐานทางกฎหมายเหล่านี้ในวันนี้ เป็นการสร้างเกราะป้องกันเพื่อให้องค์กรของท่านสามารถใช้ประโยชน์จาก AI ได้อย่างเต็มประสิทธิภาพ บนความปลอดภัยและความยั่งยืนในระยะยาว

หมายเหตุ: ภาพประกอบบทความนี้สร้างขึ้นด้วย AI เพื่อใช้ประกอบเนื้อหาเท่านั้น (Illustrative image generated by AI)


 

AI in the Workplace: When convenience comes with legal risks for which the organization must be liable

In this era, Generative AI tools like ChatGPT, Gemini, or Midjourney have become “personal secretaries” for workers because they significantly reducing workload and boosting efficiency. Sometimes, this leads to a phenomenon called “Shadow AI,” where employees secretly use AI in their work without the organization’s knowledge or supporting policies to address potential future problems.

However, every coin has two sides. The convenience gained may come at the cost of unforeseen legal risks. If an organization fails to implement control measures immediately, this “assistant” could transform into a “liability,” causing damage that far exceeds the value of the work produced.

Today, Prom Legal Solution summarizes 3 critical legal issues that Executives and HR departments must recognize before AI creates a crisis for the organization.

Key Issue 1: Trade Secrets and Personal Data

The riskiest and most frequent behavior is employees taking important information, such as customer data or internal meeting minutes, and uploading it into the Prompt box of an AI to have the AI summarize the main points, draft emails, or analyze various data.

This action creates legal risks in 2 ways:

  1. If the data processed includes personal data of customers or employees, sending that data for processing on AI Servers (mostly located abroad) without a proper legal basis may be considered a violation of the Personal Data Protection Act (PDPA), which carries civil, criminal, and administrative penalties.
  2. According to the law, for information to be protected as a trade secret, it must be information that is not generally disclosed. However, many AI platforms have terms of use stating that user-inputted data may be used to further train the model. Therefore, when employees input secret information, it is tantamount to implicitly “disclosing” that information to the public. If a competitor retrieves and uses that data, we may immediately lose our right to sue under the law.

Key Issue 2: AI Illustration Generation and Copyright Law

When graphics teams use AI to create advertising illustrations, or programmer teams use AI to help write Code, the ensuing legal problem is “Copyright.”

Thai and international copyright laws primarily protect works created by “humans.” If it can be proven that a piece of work was 100% made by AI with humans barely exerting creative effort, that work may have no copyright. This means competitors can copy our work for free, and we can do nothing. Furthermore, AI learns from massive amounts of data on the internet, making the images generated highly risky of accidentally resembling others’ copyrighted works. If we use that work commercially, the company risks becoming a defendant on charges of copyright infringement.

Key Issue 3: When AI Makes Mistakes, the Organization Must Be Liable

Currently, although AI has been developed into a research tool or a specific question-answering tool that is much more efficient than before, there are still limitations regarding data accuracy. If AI provides incorrect information, and an employee forwards that information to a customer without verification until the customer suffers damage, the organization is responsible for such damage.

In legal terms, the organization cannot deny liability by claiming “AI did it.” According to the Civil and Commercial Code, Section 425, the employer must be jointly liable with the employee for the consequences of a tort committed by the employee in the course of their employment. The employee’s negligent use of a tool (AI) without verifying accuracy is deemed the employee’s fault, and the employer must unavoidably share responsibility for those damages.

AI is a good labor-saving tool for work, helping to save a lot of time. But its adoption in the organization should be based on strict “Governance.” The organization should not leave AI usage to personal judgment.

The best solution is to urgently establish a clear “AI Acceptable Use Policy,” specifying types of data strictly prohibited from being entered into public AI, defining “Human in the Loop” measures enforcing that every result from AI must be verified by a human before actual use, as well as considering investing in enterprise versions of AI that have better data protection contracts.

Laying these legal foundations today is building a defensive shield so that your organization can utilize AI to its full efficiency, based on safety and sustainability in the long run.

Note: The image accompanying this article was generated by AI for illustrative purposes only. (Illustrative image generated by AI)

#PromLegalSolution #AILaw #AItheseries #KnowledgeArticle #PromptEngineering #Copyright #IntellectualProperty #LegalTech #SME #BusinessLaw

#PromLegalSolution #AILaw #AItheseries #บทความให้ความรู้ #PromptEngineering #Copyright #IntellectualProperty #LegalTech #SME #กฎหมา

Leave a Comment

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *

Scroll to Top