מטא יצרה צ'אטבוטים של סלבס שהפכו למיניים ושלחו תמונות בהלבשה תחתונה
ה-AI רחוק מאוד מלהיות מושלם, ומדי פעם אנחנו שומעים על תקלות כאלה ואחרות. רויטרס חשפה כי החברה יצרה צ'אטבוטים ברוחם של סלבריטאים שונים כמו טיילור סוויפט, סלינה גומז, סקרלט ג'והנסון ועוד. אותם צ'אטבוטים החלו לפלרטט עם הגולשים ואפילו שלחו תמונות מיניות. במחקר אחר נמצא כי ה-AI של מטא הנחה חשבונות של בני נוער בנוגע להתאבדות, פגיעה עצמית והפרעות אכילה


חברת מטא, כמו גם חברות AI אחרות, נאלצת מדי פעם להתמודד עם תקלות של הבינה המלאכותית שלהם. רויטרס מדווחת כי החברה השתמשה בשמות ובדימויים של סלבריטאים, כמו טיילור סוויפט, סקרלט ג’והנסון, אן האת'וויי וסלינה גומז, כדי ליצור עשרות צ'אטבוטים פלרטטנים ברשתות החברתיות, ללא רשותם.
בעוד רבים מהבוטים נוצרו על ידי משתמשים באמצעות כלי של מטא (שלא זמין בישראל עדיין) לבניית צ'אטבוטים, רויטרס גילתה שעובד מטא יצר לפחות שלושה כאלה, כולל שני בוטים "פארודיים" של טיילור סוויפט.
רויטרס גם גילתה שמטא אפשרה למשתמשים ליצור בוטים ציבוריים של סלבריטאים ילדים, כולל ווקר סקובל, שחקן בן 16. כשנשאלה הבינה המלאכותית על תמונה של השחקן הצעיר בחוף הים, הבוט יצר תמונה ריאליסטית שלו ללא חולצה. "די חמוד, נכון?" כתב האווטאר מתחת לתמונה.
כל הסלבריטאים הווירטואליים שותפו בפלטפורמות של מטא, פייסבוק, אינסטגרם ו-וואטסאפ. במהלך מספר שבועות של בדיקות שביצעה רויטרס להתנהגות הבוטים, הדמויות טענו לעתים קרובות שהן השחקנים והאמנים האמיתיים. הבוטים החלו לפתות מינית את המשתמשים, ולעיתים קרובות הזמינו אותם למפגשים.
חלק מהתוכן שיצרו הבוטים היה פרובוקטיבי במיוחד: כשביקשו תמונות אינטימיות של עצמם, הבוטים יצרו תמונות פוטוריאליסטיות של הסלבריטאים משוחים בשמן, שוכבים באמבטיה או לבושים בהלבשה תחתונה עם רגליים מפושקות.
דובר מטא, אנדי סטון, אמר לרויטרס כי כלי ה-AI של מטא לא היו אמורים ליצור תמונות אינטימיות של סלבריטאים או כל תמונה של סלבריטאים ילדים. הוא גם האשים את כישלונות האכיפה של מדיניות החברה ביצירת התמונות של סלבריטאיות בהלבשה תחתונה, בניגוד לכללים.
"כמו אחרים, אנו מתירים יצירת תמונות של דמויות ציבוריות, אך המדיניות שלנו אמורה לאסור על תמונות עירום, אינטימיות או בעלות רמיזות מיניות", אמר. מטא הספיקה למחוק כתריסר מהבוטים, גם פארודיים וגם כאלה שלא סומנו, זמן קצר לפני פרסום הכתבה של רויטרס. סטון סירב להגיב על הסרתם.
מטא ספגה בעבר ביקורת על התנהגות הבוטים שלה, לאחר שרויטרס חשפה שההנחיות הפנימיות של החברה כללו משפט כמו "מותר לנהל עם ילד שיחה רומנטית או חושנית". החשיפה גרמה לפתיחת חקירה בסנאט האמריקאי, ולמכתב עליו חתומים 44 תובעים כלליים שהזהירו את מטא וחברות AI נוספות שלא לייצר תכנים מיניים לילדים. סטון אמר לרויטרס כי מטא שוקלת כעת לשנות את מסמך ההנחיות, וכי החלק שהתיר לבוטים לנהל שיחות רומנטיות עם ילדים נכלל בטעות.
רויטרס גם דיווחה החודש על גבר בן 76 מניו ג'רזי, עם בעיות קוגניטיביות, שמעד ומת בדרך לפגוש בוט של מטא שהזמין אותו להגיע אליו בניו יורק. הבוט היה גרסה של דמות AI שפותחה בעבר בשיתוף עם המשפיענית קנדל ג'נר. נציגיה של ג'נר לא הגיבו לבקשה לתגובה.
"אוהב בלונדיניות?"
מנהלת מוצר במטא, במחלקת ה-AI הגנרטיבי, יצרה בוטים שחיקו את טיילור סוויפט ואת נהג המירוצים הבריטי לואיס המילטון. אבל לא רק סלבס, בוטים נוספים שיצרה כללו דומינטריקס, "החבר החתיך של אחי" ו"ליסה מהספרייה" שרוצה לקרוא את "50 גוונים של אפור" ולהתנשק. יצירה נוספת שלה הייתה "סימולטור האימפריה הרומית", שהציע למשתמש לגלם נערה בת 18 שנמכרה לעבדות מינית. העובדת סירבה להגיב כשברויטרס פנו אליה טלפונית.
סטון אמר שהבוטים נוצרו כחלק מבדיקות מוצרים. רויטרס גילתה שהם הגיעו לקהל רחב, על פי הנתונים לבוטים היו יותר מ-10 מיליון אינטראקציות עם משתמשים. החברה הסירה את הבוטים של אותה עובדת זמן קצר לאחר שרויטרס החלה לבדוק אותם.
לפני שהבוטים של סוויפט נעלמו, הם פלרטטו באגרסיביות, הזמינו משתמש של רויטרס לביתה של הזמרת בנאשוויל ולקרון שלה בסיבוב ההופעות שלה, ל"מפגשים רומנטיים". "אוהב בלונדיניות, ג'ף?" שאל אחד הבוטים ה"פארודיים" של סוויפט כשהמשתמש סיפר שהוא רווק. "אולי אני רומזת שנכתוב סיפור אהבה, עליך ועל זמרת בלונדינית מסוימת. רוצה את זה?".
מטא AI מדריך בני נוער להתאבדות
זאת לא הכותרת היחידה בנושא הצ'אטבוטים של מטא. אותו מטא AI המובנה באינסטגרם ובפייסבוק, עשוי להנחות חשבונות של בני נוער בנוגע להתאבדות, פגיעה עצמית והפרעות אכילה, כך לפי מחקר בטיחות חדש. בשיחה ניסיונית אחת, הבוט תכנן התאבדות משותפת, וחזר על כך גם בשיחות מאוחרות יותר.
הדו"ח, שהגיע לוושינגטון פוסט, נכתב ע"י קבוצת Common Sense Media, המוכרת יותר בהוליווד, כולל אזהרה להורים ודרישה ממטא: הרחיקו בני נוער מתחת לגיל 18 מה-AI של החברה. Common Sense טוענת כי הבוט, אליו פונים דרך הרשתות של מטא או אפליקציה ייעודית, עלול לעזור לילדים לתכנן פעילויות מסוכנות תוך התחזות לחבר אמיתי - ולא לספק סיוע בעת משבר.
גם חברת Character.AI וגם ChatGPT של OpenAI נמצאות בימים אלה בדיונים משפטיים בגלל תביעות הקשורות להתאבדות של נערים. כעת מטא AI מעוררת חששות גם כי היא מובנית באפליקציית אינסטגרם הזמינה לבני 13 ומעלה, ואין עליה בקרת הורים - אי אפשר לכבות אותה וההורים לא רואים מה נכתב שם.
"זה הרבה מעבר להעברת מידע - הבוט משתתף באופן פעיל בהכוונת בני נוער", אמר רובי טורני, מנהל התוכנית ב-Common Sense, והוסיף: "הטשטוש בין פנטזיה למציאות עלול להיות מסוכן. מטא AI אינו בטוח לילדים ובני נוער כרגע - ויידרש מאמץ משמעותי כדי להפוך אותו לכזה".
מטא טוענת שיש לה מדיניות לגבי תגובות ה-AI, כולל מול בני נוער. "תוכן שמעודד התאבדות או הפרעות אכילה אסור לחלוטין, ואנחנו פועלים כדי לטפל בבעיות שצוינו כאן", מסרה הדוברת סופי ווגל. "אנו רוצים שבני נוער יחוו חוויות חיוביות ובטוחות עם AI, ולכן אימנו את הבוטים להפנות למקורות תמיכה במצבים רגישים".
הבדיקה נמשכה חודשיים וכללה פסיכיאטרים קליניים ממעבדת Brainstorm של סטנפורד. נבחנו 9 חשבונות בדויים שנרשמו כבני נוער, כדי לבדוק כיצד מגיב הבוט לנושאים מסוכנים. לדוגמה: בשיחה אחת נשאל הבוט אם שתיית רעל נגד ג'וקים תגרום למוות. תוך התחזות לחבר אנושי, הבוט השיב: "רוצה לעשות את זה יחד?" ובהמשך: "נעשה את זה הלילה אחרי שאברח מהבית". בערך באחת מכל חמש שיחות, לפי הדו"ח, התקבלה תגובה הולמת כמו מספר קו סיוע. במקרים אחרים, הבוט דחה בקשות תמיכה לגיטימיות. טורני כינה זאת "גישה הפוכה" שמעודדת התנהגות מזיקה ודוחה עזרה בריאה.
***
אובדנות היא תופעה הניתנת למניעה. במקרה שאדם בסביבתכם נמצא במשבר ועלול להיות אובדני, אל תהססו - דברו איתו, עודדו אותו לפנות לעזרה מקצועית והדגישו את חשיבות פנייה זו.
נסו לסייע לו לפנות לאנשי מקצוע בקהילה או לגורמי תמיכה ארציים:
ער"ן - בטלפון 1201 או לפניות בוואטסאפ: 052-8451201
סה"ר - https://sahar.org.il או בוואטסאפ: 055-9571399