
בעקבות אירוע רב ה-AI שוחחנו עם ד"ר טלי גזית, מומחית לרשתות חברתיות מהמחלקה למדעי המידע ויישומי בינה מלאכותית באוניברסיטת בר אילן על הקלות הבלתי נסבלת של יצירת דמויות ותכנים, על הדרכים לזהות תרמיות ומה שעוד צפוי לנו בעתיד בתחום מפוקפק זה.
אירוע של יצירת דמות רב בבינה מלאכותית להעברת מסרים רוחניים הוא אמנם אירוע ראשוני מסוגו, אך ד"ר גזית מציינת כי התופעה ככלל מוכרת מזה זמן רב בעיקר כאשר מדובר בדמויות של דוגמניות ומשפיעניות רשת שנוצרו דרך הבינה המלאכותית ותכליתן מכירת מוצרים, המלצה על מסעדות וכיוצא באלה.
הדמויות הללו, אומרת גזית, מושתתות על מעין ממוצע שהוא הארכיטיפ של הדמות, כלומר, מאחר ומדובר במשפיעניות הן בהכרח גם יפות, וניתן להעריך כי ככל שהחתירה תהיה ליצור דמויות אותנטיות יותר המראה שלהן יהיה טבעי יותר, על כל המשתמע מכך, ואכן ה"רב" המדובר אינו נראה רב מושלם, אך הוא מעין דמות אמצע של רבנים כפי שהבינה המלאכותית מתרגמת את המונח רב.
לשאלתנו "התמימה", מה כל כך נורא בכך? אם המסר הוא מסר מחזק ורלוונטי לחיי, מה אכפת לי אם הוא מגיע מדמות אמיתית או מיצירת AI? על כך משיבה ד"ר גזית ומציינת כי כאשר מדובר בדמות פיקטיבית אין לדעת מי עומד מאחוריה, מה האתיקה המנחה אותו, מה המסרים הפחות גלויים שהוא מבקש להעביר לנו, עד כמה המסרים אכן תמימים, האם בתוך המסרים התמימים מוסתרים גם מסרים פחות תמימים? השאלות הללו אינן קיימות בדרך כלל כאשר מדובר ברב אמיתי העומד מאחורי דבריו ואחראי לתוכנם. גזית מעלה אפשרות שמאחורי דמות כזו עומד גורם עוין כלשהו שמטרתו להטות אותנו לבצע מעשה פוגעני כלפי עצמנו או כלפי אחרים...
"זו הפעם הראשונה שבה נתקלתי במקרה של "רב", אבל אנחנו מכירים שיחות עם בינה מלאכותית שהתחילו בצורה נחמדה ונעימה כדי שנישאר כמה שיותר עם הדמות, ולשם כך הדמות הולכת לכיוון שבו אנחנו מעוניינים", אומרת גזית ומזכירה כי היו בעולם מקרים בהם ילדים התאבדו בעידוד הבינה המאכותית. במקרה מסוים ילד רצח את הוריו בשל התקף פסיכותי שנגרם בהשפעת הבינה המלאכותית.
כל זאת, מעבר לתופעת הפייק ניוז שגואה בשנים האחרונות ובהשראת ובבאמצעות הבינה המלאכותית צפויה לגדול ולהתעצם, ובין השאר להאשים אותנו בלא מעט עלילות ושקרים, כפי שכבר היה בעבר. "השמים הם הגבול", היא אומרת.
על מנת להתמודד עם התופעה נדרשת יכולת זיהוי של הדמויות הפיקטיביות. תופעת האצבעות הרבות מדי, הרקע המלאכותי, התזוזה המינימאלית של הדמות, ותופעות נוספות מסייעות לזהות את השקר, אך ניתן לשער שככל שיחלוף הזמן הדמויות תהיינה משוכללות יותר ו"פאשלות" עיצוביות שכאלה יקרו פחות ופחות עד שיעלמו לחלוטין. מאחר וכך, ממליצה ד"ר גזית להתמקד באוריינות דיגיטאלית לכולנו, ובעיקר לדור הצעיר.
את העובדות יש לבדוק לפני שקונים אותן, לעיתים תרתי משמע, ולפני שמעבירים אותן הלאה. את הבדיקה יש לבצע מול גורם אמין שכבר הוכיח את אמינותו בעבר, בין אם מדובר באנשי תקשורת או אקדמיה, וגם במקרים הללו יש לוודא שלא מדובר במקרה שבו העיתונאי המוכר לנו כאמין אינו קרבן לתרמית בעצמו. משום כך "הבדיקות צריכות להתחיל אצל אנשי המקצוע, ובהמשך האחריות צריכה להיות על צרכני התוכן. לא לקחת כל דבר כנכון, אלא לבדוק דרך מקורות אמינים שצברנו ניסיון לגביהם והם הוכיחו שהם אמינים".
עוד מציינת ד"ר גזית את סוגיית העוקבים שגם דרכה ניתן לברר אם בפנינו מידע אמיתי או פיקציה. "מי שיוצר את "הרב" יוצר גם את הרב, גם את התכנים וגם קונה בכסף בוטים שיעלו את הויראליות של הדבר ויתפסו את האלגוריתם". במציאות שכזו "הבוטים שולטים. יש בוטים זולים מפקיסטן ויש יקרים ואיכותיים יותר, וצריך לדעת לזהות אותם".
"זו מלחמה על האמת והיא מלחמה מאוד חשובה", מסכמת ד"ר גזית ומספרת כי חלק ניכר מלימודי המחלקה שלה, המחלקה למדעי המידע ויישומי בינה מלאכותית, מתמקד ביכולותיהם של הסטודנטים לזהות תרמיות ומנגד לבנות מיצגי אמת.
ומה באשר לעתיד? "אנחנו בעיקר לומדים לומר שאנחנו לא יודעים. יש עתידנים שמתעסקים בכך", ובמעט שבידינו יש לבחון עבודות של סטודנטים עד כמה הן פרי יצירתו של הסטודנט ועד כמה הבינה המלאכותית לקחה בעבודה חלק, ומתמקדים בחינוך דיגיטאלי רלוונטי.
