ההיבטים המשפטיים של הטמעת מערכות Generative AI בארגונים: מדריך למנהלים

אפריל 9, 2025 מאת: ענבר דותן

בשנים האחרונות, מערכות בינה מלאכותית יצרנית (Generative AI) הפכו לכלי משמעותי בארגונים רבים, החל מחברות טכנולוגיה ועד לתאגידים מסורתיים. הטכנולוגיה מציעה יתרונות עצומים – מייעול תהליכים שיווקיים, שיפור שירות לקוחות באמצעות צ'אטבוטים מתקדמים, ועד ליצירת תוכן מקורי. אולם, כמו כל טכנולוגיה חדשנית, היא מביאה עמה גם סיכונים משפטיים שחשוב להבין ולהיערך אליהם באופן יסודי.

ענבר דותן

ענבר דותן

דמיינו מצב שבו צרכן שחווה אובדן במשפחה מחפש בדחיפות כרטיס טיסה להלוויה. הוא פונה לצ'אטבוט של חברת תעופה ומקבל תשובה ברורה: ניתן להזמין כרטיס בתעריף מלא ולאחר מכן להגיש בקשה להחזר במסגרת "תעריף שכול". בהסתמך על המידע הזה, הלקוח רוכש כרטיס, טס, ולאחר מכן מגיש בקשה להחזר – רק כדי לגלות שהמדיניות האמיתית שונה לחלוטין. התוצאה? תביעה משפטית, נזק תדמיתי והחלטת בית משפט שקובעת כי החברה אחראית למידע שמסר הצ'אטבוט, גם אם הוא שגוי.

זה בדיוק מה שקרה לאייר קנדה בתחילת 2024. בית המשפט בקנדה פסק לטובת הלקוח, וקבע כי "אין זה משנה אם ההבטחה נעשתה על-ידי אדם או מכונה – החברה אחראית למידע שמספקים נציגיה, גם אם הם דיגיטליים". אייר קנדה חויבה לשלם 592.82 דולר קנדי עבור עלות הכרטיס, בתוספת 1,500 דולר קנדי כפיצוי על עוגמת נפש. כפי שדווח ב-Forbes, השופטת הדגישה בפסיקתה: "יהיה זה בלתי מתקבל על הדעת שעסק יפעיל סוכן וירטואלי כדי לספק מידע ללקוחות ואז יתכחש לאותו מידע בטענה שהסוכן טעה".

אמנם פסק הדין אינו מהווה תקדים מחייב, אך הוא עשוי לשמש כהתייחסות משפטית משמעותית במקרים עתידיים.

אז איפה עובר הגבול בין שימוש חכם לשימוש מסוכן ב-AI?

אין ספק שהטכנולוגיה כאן כדי להישאר. מערכות AI מציעות לארגונים דרכים חכמות לשפר שירותים, לייעל תהליכים, ולהתאים תוכן ללקוחות. אבל יש הבדל מהותי בין מערכת AI שממליצה על תהליכים פנים-ארגוניים, ועוברת בקרה אנושית, לבין מערכת שיוצרת תוכן באופן עצמאי, ללא פיקוח.
הייתי מחלקת את המערכות לשלושה סוגים:

מערכות שמשמשות ככלי עבודה פנימי – כמו מערכת שמסייעת לעובדים למצוא מידע רלוונטי במהירות. במקרה כזה, הסיכון המשפטי נמוך יחסית, כי מדובר בהמלצות פנימיות שנבדקות על ידי עובדים.

מערכות שמתעדפות תוכן או פרסום אונליין בהתאם להעדפות המשתמשים – לדוגמה, מנועי חיפוש או פלטפורמות פרסום. כאן, התוכן שנחשף למשתמש עובר בקרה אנושית, אך עדיין קיים סיכון להעדפה מוטה או להטעיה בלתי מכוונת.

הקטגוריה הרגישה ביותר: מערכות Generative AI – מערכות אלה יוצרות תוכן בעצמן – ללא פיקוח אנושי ישיר. בין אם זה צ'אטבוט שנותן תשובות ללקוחות, מערכת שמנסחת חוזים או אפילו AI שמפיק כתבות חדשותיות, ברגע שהתוכן נוצר על ידי אלגוריתם ללא בקרת איכות נאותה, הארגון מסתכן. מעבר לסיכון להטעיית לקוחות, מערכות אלו עלולות ליצור תוכן המפר זכויות יוצרים של צדדים שלישיים או לחשוף מידע רגיש שלא כדין, מה שעלול להוביל לתביעות משפטיות בגין הפרת זכויות יוצרים או פגיעה בפרטיות.

חמש המלצות מעשיות להטמעה אחראית של מערכות AI:

לפני שמטמיעים מערכת AI בארגון, יש כמה צעדים קריטיים שיכולים לחסוך הרבה כאבי ראש משפטיים:

  1. להגדיר תהליכי בדיקה שוטפים – אל תסמכו על כך שהמערכת "תלמד לבד". קבעו נהלים ברורים לבדיקה תקופתית של המערכת, ותעדו את התוצאות.
  2. להדריך את המשתמשים – עובדים ולקוחות צריכים להבין איך להשתמש במערכת בצורה נכונה, ולדעת מהם הגבולות שלה.
  3. להיערך לטיפול בתקלות – צרו מנגנון פשוט וזמין לפניות בנוגע לתקלות או תשובות בעייתיות.
  4. להבהיר שמדובר במערכת AI – המשתמשים חייבים להבין שהתוכן שנוצר עלול להכיל טעויות, ושכדאי להם לוודא את נכונותו.
  5. להתייעץ עם עורכי דין – קבלו ייעוץ משפטי לפני השקת המערכת וערכו סקירה תקופתית של השינויים בחקיקה ובפסיקה הרלוונטי.

לסיכום, שימוש חכם ב-AI יכול להביא לארגון יתרונות עצומים, אבל הוא גם מציב אתגרים משפטיים שצריך להתמודד איתם מראש. לא כל שגיאה תוביל לתביעה כמו במקרה של אייר קנדה, אבל מספיק פוסט ויראלי אחד על תשובה שגויה של הבוט שלכם כדי לפגוע באמון הלקוחות. ולכן, כמו בכל תחום חדשני, הדרך הנכונה היא לשלב בין קידמה טכנולוגית לאחריות – ולהשתדל להיערך לכל תרחיש אפשרי.

הכותבת היא שותפה ויועצת בכירה BO – Business Online

 

שינוי גודל גופנים
ניגודיות