בינה מלאכותית
בינה מלאכותיתצילום: iStock

האם האינטליגנציה המלאכותית תוביל בסופו של דבר להכחדת האנושות? אם שואלים עשרות מומחים מחברות הענק של הטכנולוגיה העולמית, התשובה היא בהחלט "כן".

בהצהרה שפורסמה בדף האינטרנט של המרכז לבטיחות אינטליגנציה מלאכותית מזהירים עשרות המומחים מפני הסכנות של האינטליגנציה המלאכותית, וטוענים כי בסוף התהליך היא עלולה להוביל להכחדת האנושות.

הם קוראים לנקוט בפעולה דחופה על מנת להפחית את הסכנה. "הפחתת סכנת ההכחדה מאינטליגנציה מלאכותית צריכה לעמוד בראש סדר העדיפויות העולמי, לצד סיכונים אחרים בקנה מידה חברתי כמו מגפות ומלחמה גרעינית", נכתב בהצהרה עליה חתומים בין היתר בכירים בגוגל, חברת האינטליגנציה המלאכותית OpenAI, חברת Deepmind ועוד.

בהצהרה מזהירים עשרות המומחים מפני הסכנה שנשקפת מפני אינטליגנציה מלאכותית בלתי מבוקרת, שהתפתחה בצורה משמעותית בשנים האחרונות ומהווה מקור להשקעת סכומי עתק. החשש בקרב המומחים הוא כי בוטים מלאכותיים יגרמו להפצת מידע מזויף ופאניקה ברחבי העולם, שעלולה להוביל לאסון עולמי. אתר המרכז לבטיחות אינטליגנציה מלאכותית מציע מספר תרחישי אסון אפשריים.

בין היתר נטען כי ניתן יהיה להשתמש באינטליגנציה מלאכותית כנשק, כאשר לדוגמא כלים לגילוי סמים יוכלו לסייע בבניית נשק כימי. סכנה נוספת היא כי מידע מוטעה שנוצר על ידי אינטליגנציה מלאכותית עלול לערער את היציבות בחברה ו"לערער את קבלת ההחלטות הקולקטיבית".

כוחה של האינטליגנציה המלאכותית עשוי להתרכז בקרוב בידי מספר מצומצם במיוחד של אנשים, מה שיאפשר ל"משטרים לאכוף ערכים צרים באמצעות מעקב נרחב וצנזורה מדכאת".

המומחים גם מזהירים מפני היחלשות האנושות והפיכתם של בני אדם תלויים יותר ויותר באינטליגנציה מלאכותית.

עם זאת, מנהל המרכז לבטיחות האינטליגנציה המלאכותית, דן הנדריקס, ניסה להרגיע את החששות ואמר כי "טיפול בחלק מהבעיות היום יכול להיות שימושי לטיפול ברבים מהסיכונים המאוחרים בעתיד. לא צריך להתייחס לסיכונים העתידיים ולחששות הנוכחיים בצורה אנטגוניסטית".