
סם אלטמן, מנכ"ל OpenAI, קורא לציבור לנהוג משנה זהירות בשימוש בצ'אטבוטים של בינה מלאכותית לתמיכה רגשית או טיפול נפשי.
לדבריו, אין כיום כל חיסיון משפטי על שיחות עם ChatGPT, ותוכן שיחה אישי עשוי להיחשף במקרה של תביעה - בניגוד לשיחה עם מטפל, עורך דין או רופא.
בפרק האחרון של הפודקאסט This Past Weekend, אמר אלטמן, "אנשים מדברים עם ChatGPT על הדברים הכי אישיים בחיים שלהם - בעיות בזוגיות, תחושות נפשיות, שאלות על החיים. הם מתייחסים לזה כמו מטפל. אבל אין הגנה משפטית. אין סודיות. ואנחנו עדיין לא פתרנו את זה".
אלטמן הסביר כי בהיעדר חקיקה ייעודית, OpenAI מחויבת לפי החוק האמריקאי למסור תכנים רגישים לבתי משפט - כמו במקרה בתביעה שהגישה הניו יורק טיימס נגד OpenAI ומיקרוסופט, שם נדרש מהחברה לשמור ולהציג שיחות משתמשים. רק לקוחות של גרסת ChatGPT Enterprise נהנים ממדיניות פרטיות מחמירה יותר.
"אני חושב שזה ממש מעוות", הוסיף אלטמן. "צריכה להיות אותה תפיסה של פרטיות כמו כשאתה מדבר עם פסיכולוג. ואף אחד בכלל לא חשב על זה לפני שנה".
ב־OpenAI מבינים שהיעדר הגנה משפטית עלול להוות חסם מרכזי לאימוץ רחב של הכלי. החברה מערערת על צו משפטי שמחייב אותה לשמור מידע ממשתמשים לצורכי ראיות. לדבריה, מדובר ב"חריגה מסמכות" שמאיימת על מדיניות הפרטיות.
בין הדוגמאות שהוזכרו ברקע דבריו של אלטמן: לאחר שבית המשפט העליון בארה"ב ביטל את פסק הדין רו נגד וייד, הפכו נתוני בריאות אישיים לרגישים במיוחד - ומשתמשות עברו לאפליקציות שמצפינות מידע כדי למנוע מעקב אחרי הריונות והפלות במדינות בהן ההליך הפך בלתי חוקי.
אלטמן סיכם באמירה ישירה: "רק כאשר תהיה ודאות משפטית בנוגע לפרטיות, אנשים יוכלו להשתמש בכלי כמו ChatGPT בלי חשש. כרגע, זה פשוט לא המצב".