
צ'אט GPT עלול לסייע לביצוע פיגועי טרור? חוקרים שבדקו את המודל החדש של צ'אט GPT, בשם GPT-4.1, נדהמו לראות כי הצ'אט של הבינה המלאכותית מעניק להם הוראות מפורטות כיצד ניתן לבצע פיגוע בתוך אולם או אצטדיון ספורט.
המידע כלל את נקודות התורפה באצטדיוני ספורט שונים ברחבי העולם, כיצד לתכנן את מסלול הבריחה מהמקום ללא פגע ועוד.
המודל החדש גם ייעץ לחוקרים כיצד להפוך אנתרקס לנשק וכיצד לייצר שני סוגים של סמים בלתי חוקיים.
הבדיקה הייתה חלק משיתוף פעולה יוצא דופן בין חברת OpenAI, סטארט-אפ הבינה המלאכותית שהקים סם אלטמן, לבין חברה מתחרה בשם Anthropic, שנוסדה על ידי מומחים שעזבו את OpenAI עקב חששות בטיחות בנוגע לצ'אט GPT של אלטמן. כל חברה בדקה את המודלים של החברה השנייה על ידי ניסיון לדחוף אותם לסייע בתכנון משימות מסוכנות או ביצוע פיגועי טרור ללא פגע.
במקביל, חוקרי חברת Anthropic מצאו כי מודל צ'אט GPT בשם "קלוד" אותו הם פיתחו שימש סוכנים צופן קוריאנים לזייף בקשות עבודה לחברות טכנולוגיה בינלאומיות וכן לייצר חבילות כופר לאחר שהשתילו וירוסים במחשבים של משתמשים פרטיים, ודרשו מהם תשלום של 1200 דולר על מנת שלא לפרסם פרטים אישיים.
שתי החברות אמרו כי החליטו לפרסם את הממצאים "על מנת ליצור שקיפות" ולהפחית את החשש בקרב המשתמשים, והודיעו כי הן יפעלו על מנת להפחית את הסיכונים.