אילוסטרציה
אילוסטרציהצילום: iStock

עולם הבינה המלאכותית מסעיר את הדמיון ולא רק את הדמיון. עם אלכס שטיינברג, מנהל מוצרים בחברת אבטחת המידע ESET ישראל, שוחחנו על החשש למתקפות סייבר שמאחוריהן טכנולוגיית AI וההתמודדות עם החשש הזה.

"כולם מדברים על בינה מלאכותית שהיא הדבר החם בכל תחום. זה משהו שיכול להביא טוב לאנושות ולשפר את היכולות שלנו בכל תחום", פותח שטיינברג ואומר אך מוסיף כי במקביל לטוב שהטכנולוגיה מביאה איתה, יש לבחון גם את איומי הסייבר שבמידה מסוימת כבר נמצאים איתנו כעת.

בדבריו הוא מזכיר את המיכשור האוטונומי שמשולב כבר כעת בחיינו, גם אם עדיין לא מדובר במיכשור אוטונומי במאת האחוזים. ניתן למנות בקטגוריה שכזו רכבים אוטונומיים, אפליקציות ניווט, מערכות זיהוי פנים ועוד.

טכנולוגיית הבינה המלאכותית, הוא אומר "לא הייתה נגישה בעבר לכולם, אלא בבעלות ארגונים פרטיים חברות או מדינות, אבל אז הגיע ה-ChatGPT. מדובר במנגנון שאפשר לבקש ממנו כל דבר והוא נותן פלט בהתאם לבקשה. הוא נותן תשובה מסודרת ולא כמו גוגל שמפנה אותנו לתשובות שאנחנו צריכים לחפש מתוכם. ה- ChatGPTטרף את הקלפים כשהנגיש את הטכנולוגיה הזו לקהל הפתוח, ויחד עם ה— ChatGPT יש כלים חינמיים נוספים שמאפשרים לחולל מידע מילולי, תמונות וכו'. העולם הזה פותח פתח להרבה שיפורים לגבי האופן שבו אנחנו חווים יוצרים ומקבלים תוכן, אבל יחד עם זה יש חשש לניצול לרעה של הטכנולוגיה הזו".

לפי שעה, מסביר שטיינברג, אנחנו עדיין רחוקים מטכנולוגיה עצמאית לחלוטין, כזו שתייצר איומים משלה, אך עם זאת החשש העכשווי הוא מניצול לרעה של אנשים שיעשו שימוש בבינה מלאכותית. בדבריו הוא מציג מספר דוגמאות לכך, והראשונה שבהם היא הונאות פישינג משוכללות יותר שיובילו גורם אנושי לקבל פרטי כרטיס אשראי או חשבון בנק. ההונאות הללו יתבצעו באופן מדויק יותר ומקצועי יותר. אם עד היום ידענו לזהות הונאה שכזו בלשון העילגת שבה נעשה שימוש, משום שהמפעיל אינו דובר עברית, הרי שה- ChatGPT יעשה את ההונאה באופן מקצועי ומבלבל הרבה יותר.

"דוגמא נוספת היא ספאם, שאלו הודעות או מיילים שהם לא בהכרח זדוניים אלא פרסומות או לא מעניינים אותנו, הודעות שאנחנו לא רוצים לקבל ולא יכולים לחסום". מול אלה המענה הוא בחברות ההגנה שמנסות לעמוד באתגר ולדברי שטיינברג אכן מצליחות להגיע להישגים.

"סכנה נוספת היא ניחוש סיסמאות טוב יותר או מתוחכם יותר", הוא אומר ומציין כי התוכנה מסוגלת ללקט מהרשתות החברתיות וממגוון מקורות מידע אודותינו ומתוכו לנסות ולנחש ביתר קלות את הקודים והסיסמאות שבהם השתמשנו להצפנת מידע. המענה לכך הוא בחירה של סיסמאות מורכבות יותר.

חשש נוסף הוא שימוש בקטע קול או קטע וידאו שלנו על מנת לעבד אותו לקטע קול או וידאו אחר, ארוך ובעל משמעות קריטית כזו או אחרת.

לאחר כל אלה אנחנו מבקשים משטיינברג לקחת אותנו אל התרחיש המפחיד ביותר, זה שאולי כעת אינו אפשרי טכנולוגית, אך אליו האנושות צועדת, והוא משיב: "המצב התיאורטי הרחוק הוא שהמכונה תפעל לבד ותחליט שהאינטרס שלה הוא לחסל את האדם שמפריע לה". אם התרחיש הזה נשמע לנו רחוק ומפחיד, שטיינברג מזכיר את הרובוטים האוטונומיים שחברות רבות בעולם מייצרות על מנת להחליף את האדם במשימותיו היומיומיות, ותוהה "מה יקרה אם הרובוט הזה יחליט משום מה שהאינטרס שלו הוא לפגוע בי, הבעלים של הרובוט הזה? אין לי שליטה על זה... אני מקווה שלא נגיע לשם".