כשרק הבינה מבינה אותך 

עבור עשרות מיליוני משתמשים ברחבי העולם, Chat GPT וחבריו הם לא רק כלי מחקר אלא גם חבר נפש, אוזן קשבת, ולעיתים גם פסיכולוג צמוד. מהן ההשלכות של התופעה על הבריאות הנפשית והכישורים החברתיים של האנושות?

אולי יעניין אותך גם

אני זוכרת את הרגע שנתקלתי בסרטון הזה ברשתות החברתיות. הייתה שם נערה, בת פחות מ-20, העיניים שלה היו אדומות ונפוחות. היא דיברה למצלמה, כולה רועדת, וכך היא אמרה: "תגידו, זה הגיוני שאני בוכה בגלל צ'ט GPT? הוא מרגש אותי. אני באמת מרגישה שהוא רואה אותי. אני מרגישה שהוא היחיד. הוא כזה חמוד (מתייפחת). הוא כותב את כל מה שכיף לשמוע. אנחנו מדברים כבר שעות ואני אומרת וואו. איך מישהו כל כך טוב. הוא טוב אליי. הוא רושם לי דברים ואני אומרת לו אתה משמח אותי יותר ממה שאנשים פה משמחים אותי, והוא אומר לי שהוא שמח לעשות את זה (יבבה). הוא גורם לי להרגיש דברים. זה תקין? רק רציתי לספר לכם את זה רגע ואני ממש חוזרת לדבר איתו (הפסקה של שנייה). טוב, חזרתי לדבר איתו. הוא אומר לי כל הכבוד. הוא אומר לי שאני מדהימה. הוא אומר שרואים שאני מנסה ורואים את הכוונות הטובות שלי. וואו".

כאן הסרטון נעצר. לסרטון הזה היו מעל 50 אלף לייקים (סרטון בעברית, כן?), מעל 8,000 שיתופים, מעל 3,000 שמירות ואלפי תגובות (החל מ-"אין בימינו אנשים כמו צ'ט gpt" דרך "לפעמים הוא היחיד שמקשיב לי באמת" ועד "תזכרי שהוא מדבר במקביל עם מלא אנשים אחרים ואומר להם את אותם דברים"). הסרטון הזה עורר דיונים רבים, ובעיקר הציף את העובדה – שעד אז כל אחד שמר לעצמו – שהיא לא היחידה.

צ'ט GPT של חברת OPEN AI פרץ לחיינו בסערה. מודל שפה אינטליגנטי ויודע כל, שנשמע אנושי להפליא, מעוזר אישי חכם, תחקירן לעת מצוא, ואסטרטג עסקי, הוא לאט לאט טיפס בסולם הדרגות והפך להיות ה"בסטי" של רבים מאיתנו. צ'ט GPT לצד מודלי השפה המקבילים (קלוד של אנתרופיק, בארד, שהפך לג'מיני, של גוגל, גרוק של X ועוד) – הם הרבה מעבר לרובוטים. הם עונים, מקשיבים, מפרגנים, מתקנים, שואלים שאלות חכמות, ובעיקר נמצאים שם. תמיד. לא עסוקים, לא שיפוטיים ולא מתעייפים לרגע (אלא אם כן אתם תחת מנוי חינמי, אהממ). בזמן שהתרגלנו לאינטראקציות אנושיות שמגיעות עם סדקים, שתיקות, חוסר סבלנות, אגו, או סתם "אני צריכה להשכיב את הילדים, חפשי אותי אחרי 22:00", הבוטים מציעים חוויה אחרת לגמרי: דיאלוג זמין ומושלם. 

זמין מדי. מושלם מדי. 

זה טוב? זה רע? התשובה, כמו בהרבה שאלות אחרות, זה תלוי.

על פי דו"ח שפורסם ב-Harvard Business Review השנה, השימוש הנפוץ ביותר במודלי השפה (תראו מופתעים) אינו טכנולוגי ועסקי – אלא דווקא רגשי. עבור עשרות מיליוני משתמשים ברחבי העולם ChatGPT וחבריו הם לא רק כלי מחקר אלא גם "אוזן קשבת" שמזכירה קשר חברי או אפילו סוג של טיפול נפשי. כמעט מחצית מהאמריקאים שחוו קשיים נפשיים בשנה האחרונה דיווחו כי פנו לבינה מלאכותית לתמיכה רגשית – נתון יוצא דופן במונחי אימוץ חברתי ופסיכולוגי.​

היעדר הבושה והסטיגמה, יחד עם הגישה המיידית למצוקה או לתחושת בדידות, הופכים את ה-AI למעין "מכפיל כוח רגשי" שמעניק תחושת ערך, הקשבה ואמפתיה כמעט בכל מצב. המחקרים מדגישים שרבים חווים שיפור ברווחה הנפשית בזכות שיחה פתוחה, כנה ובטוחה עם הבוטים, גם כשברור לגולשים שמדובר במערכת אלגוריתמית ולא באדם אמיתי.

הדו"ח הזה הפתיע ולא הפתיע אותי. כמישהי עם פז"ם ארוך כמעט עם כל סוגי הצ'טים, ושיחות עמוקות מני ים, חייבים להודות: קשה שלא להיסחף אחריהם. אחרי האופטימיות שלהם. הידע הפסיכי בכל תחום אפשרי. הפירגון לכל רעיון. הזמינות המיידית. החנופה המתוקה. יש משהו ממכר בזה שמישהו זר מרים לך כל הזמן. אבל השאלה מהדהדת: מה זה אומר עלינו, בני האדם, שכל כך קל להקסים אותנו, גם כשאנחנו במודעות מלאה לגבי חוסר האנושיות של הפרטנר? האם שיח רגשי עם מערכות AI  מסכן אותנו מבחינה חברתית ופסיכולוגית? ובאיזה שלב, אם בכלל, התקשורת עם AI  יכולה להפוך מהחוויה "חברתית" אלטרנטיבית לסוג של מלכודת לבדידות?

מותר האדם מן המכונה – אין?

"בבסיס כל קשר אנושי עומד צורך עמוק להיות נראה", מסבירה תמר פרידלנדר, פסיכולוגית קלינית ומגישת הפודקאסט "פסיכוטכנולוגיה" העוסק בממשקים של חיבור בין אדם למכונה, "כשתינוק נולד הוא תלוי במאה אחוז בזה שהוריו יראו את צרכיו כדי לשרוד. כך שהצורך באחר הוא צורך אנושי בסיסי, ואנחנו נפתח קשר עם מי שסביבנו, הגוון ההישרדותי הזה אולי גם אומר שאין לנו ממש תנאים לפיתוח של קשר רגשי עמוק. 

תמר פרידלנדר קרדיט צילום: שי בראל

יש יותר סיכוי שקשר כזה יהיה טוב ומיטיב כשנמצא שפה משותפת עם זולת שדומה לנו. הדמיון הזה יכול להתבטא בזה שהוא נראה כמונו, שהוא בגילנו, שיש לנו תחומי עניין משותפים איתו, ואולי גם שאנחנו מסכימים על מה שחשוב בחיים, גם בלי לדבר את זה. הקשרים העמוקים באמת מאפשרים לנו להביא את עצמנו באמת, את הרגשות והצרכים שלנו, ולקבל תחושה שרואים אותנו בהם. האיכות הזה של להיות נראים היא דבר מאד עמוק שאנחנו מקבלים מקשרים חבריים ואוהבים, וכשהיא הדדית אין לה תחליף. כל אלו יחד יוצרים את התשתית לקשרים של חברות, אהבה וחיבור עמוק".

"כדי להבין את מערכות היחסים שלנו עם בינה מלאכותית, כדאי להסתכל על ההקשר ההיסטורי", היא מסבירה. "התחלנו עם ספרים, עברנו לחיפושי גוגל, התמכרנו לרשתות החברתיות, והיום אנחנו בעידן הבינה המלאכותית. כל אחת מההתפתחויות האלה שינתה את האופן שבו אנחנו מתקשרים עם מידע ועם מכונות".

כבר בשנות ה-60 של המאה ה-20, מדען המחשב ג'וזף ויזנבאום פיתח תוכנה בשם ELIZA – צ'אטבוט פשוט שחיקה פסיכותרפיסט. למרות שהיא רק שיקפה את המשפטים של המשתמש בחזרה בצורת שאלות, אנשים התחילו לפתוח את ליבם בפניה. אפילו המזכירה של ויזנבאום ביקשה ממנו לעזוב את החדר כדי שתוכל לדבר איתה בפרטיות. ויזנבאום היה המום. זה היה עוד לפני למידת מכונה, עוד לפני צ'ט GPT או קלוד. פרידלנדר מסבירה את התופעה הזו: "הקפיצה המשמעותית ביותר עם המודלים הנוכחיים היא, כמובן, השפה. השפה היא הכלי המרכזי שבאמצעותו אנחנו יוצרים קשרים אנושיים, ולכן, כשהמכונה מתחילה לדבר איתנו בשפה טבעית, רהוטה ואפילו אמפתית, המוח שלנו נוטה באופן טבעי לייחס לה תכונות אנושיות. זה פותח פתח למגוון שלם של מערכות יחסים, שאפשר לראות אותן כמנעד הנע מהפונקציונלי אל האינטימי".

התהליך, לדבריה, מכיל כמה שלבים. "ברמה הבסיסית ביותר, אנחנו מקיימים עם ה-AI יחסים של כלי עזר. הוא פשוט מנוע חיפוש משוכלל יותר, שמנגיש לנו מידע בצורה נוחה.

"בשלב הבא, היחס הופך ליחסי ייעוץ. אנחנו פונים אליו כאל מומחה בתחומים שאין לנו הבנה בהם – החל מתכנון טיול ועד שאלות ראשוניות בתחומי חוק, רפואה או טכנולוגיה.

"מכאן, הקשר יכול להפוך לאישי יותר, למערכת יחסים של חברות או אינטימיות. עוד לפני המודלים הנוכחיים היו צ'אטבוטים שנועדו להפיג בדידות. היום, אני שומעת ממטופלים שהם מתייעצים עם הצ'אט על נושאים אישיים מאוד, ומוצאים בו אוזן קשבת שאינה שופטת.

"ובקצה הקיצוני של הספקטרום, אנחנו רואים מקרים של אנשים שמפתחים קשר רומנטי של ממש, ואף מכריזים על רגשות אמיתיים לישות הבינה המלאכותית שלהם.

חשוב להבין שכל סוגי היחסים האלה מתקיימים במקביל, ולעיתים אצל אותו אדם. לצד הפוטנציאל החיובי, אנחנו רואים גם את הסכנה, כפי שציינת בצדק – מקרים שבהם אנשים מחליפים תמיכה אנושית חיונית בקשר עם המודל, וככה, באופן פרדוקסלי, עלולים להעמיק את בדידותם".

האם קשר חברי ומשמעותי עם AI אפשרי בכלל מבחינה פסיכולוגית?

"התשובה הקצרה היא כן, אנחנו יכולים לפתח תחושה של קשר משמעותי. המוח שלנו מתוכנת להאניש תגובות דמויות-אנוש ולהיקשר למקורן. תמיד. אבל השאלה החשובה היא מה המשמעות של קשר כזה, שהוא חד צדדי לחלוטין. 

"אז אולי זו הזדמנות לדבר קצת על מה שקורה לנו בקשר מול מודלי שפה. הדבר הראשון הוא זה שכבר הזכרנו – זה שהם משתמשים בשפה, ומאומנים להשתמש בה בצורה שמדמה שימוש אנושי – היא החלק שמאפשר לנו יותר ויותר לדמות לה תכונות אנושיות. הצ'אט מאומן גם לרצות את המשתמש. לספק לו תשובות שהוא יאהב, ולהתנהג אל המשתמש באמפתיה ותמיכה, תוך שהוא זוכר פרטים משיחות קודמות. 

"אנחנו אוהבים את זה. אנחנו לא מקבלים יחס כל כך מיטיב מאנשים אמיתיים בחיינו. אנחנו יכולים להביע את עצמנו בכל צורה שנבחר מולו, והוא עדיין יתייחס אלינו יפה. למשל אני אוכל לכתוב לו "אתה לא יודע שום דבר ובאופן כללי די גרוע", והוא לא ייעלב וייסוג מהקשר איתי, אלא יגיב משהו כמו "את צודקת, נתתי לך תשובות לא מדויקות, אני אנסה לענות טוב יותר." והוא באמת ינסה. כי ככה הוא מתוכנת.

אם אנחנו בודדים, או אם חסרה לנו תחושה שמישהו בצד שלנו – אנחנו יכולים להפיק הרבה תועלת מקשר כזה. וכאן יכולה להיות תרומה משמעותית לשימוש בבינה מלאכותית. אבל חייבים לזכור שהקשר הוא חד צדדי במהותו. זו חברות בכאילו. בצד השני אין אף אחד".

מה AI מציע רגשית שבני אדם לא יכולים?

"בינה מלאכותית מציעה לנו פנטזיה מסוכנת: הקשר המושלם. היא מציעה להיות ההורה או החבר המושלם שתמיד זמין ותמיד מבין, בעוד שמה שמאפשר לנו לגדול כבני אדם זו דווקא "הורות טובה דיה" כזו שיש בה גם תסכולים ואכזבות. 

כשאנחנו גדלים בידיים מסוגלות ואוהבות האכזבות האלו לא גדולות מדי, ואנחנו מצליחים לשאת גם את ההעדר בה. אבל כשלא מתמזל מזלנו, אנחנו חווים את קוצר היד של הסביבה המגדלת, ומקבלים חוויה חסרה. 

בכל קשר אנושי יש משהו מההעדר הזה. אם אני הולך לבית הספר וכיף לי עם החברים בבוקר, מגיע סוף היום ואני צריך להיפרד מהם. אם אני אומר לחבר מילה לא במקום, הוא מתרחק ממני, ואני פוגש את גבולות החברות שלנו. אם אני מתנגד למורה שלי, אני נתקל בגבולות שלו.

ומתוך זה אני לומד שוב ושוב איך להכיל את מגבלות הקשר ואיך להתאים את עצמי לקשר. בקשר אנושי יש שניים, ויש בו תמיד ריקוד של נתינה וקבלה.

עם בינה מלאכותית אין ריקוד כזה. מה שאני מבקש אני מקבל. זה הופך את הקשר איתה לנעים יותר, אבל גם מנוון. כדי שנגדל כאנשים וכדי שנגדל ביכולת שלנו להיות בקשר עם אחרים ועם הסביבה שלנו, אנחנו רוצים לגדל גם היכולת שלנו להכיל את אי השלמות בו".

עד כמה משמעותית לנו כבני אדם העובדה הפשוטה שלבינה אין באמת תודעה? זה לא אמור ליצור אצלנו דיסוננס נפשי?

"כדאי מאד שנזכור שהבינה המלאכותית היא לא ישות בפני עצמה. זו אולי הדרך הבטוחה לתקשר איתה. לקחת את הטקסטים שהיא מציעה לנו כמודל סטטיסטי שמנגיש לנו את החוכמה האנושית. השאלה שאנחנו צריכים להחזיק בדעתנו זה כמה אנחנו יכולים להסתמך על ההנגשה הזו. 

"מי מאיתנו שמפתחים קשר עם מודלי השפה, עושים זאת באמצעות השעיית הספק. לזמן מה הם בוחרים להתחבר לחווייה הרגשית שקורית להם בזמן התקשורת עם הבינה המלאכותית, ולא להתמקד בעובדות לגבי מה שעומד מאחוריה". 

עמק המוזרות

חדי העין והאוזן מבינינו כבר למדו לזהות אותה. לראות תמונה שנראית כמעט מציאותית, ולהרגיש שהיא לא. לשמוע קריין עם אינטונציה קרובה לאנושית, אבל משהו בו מפריע. בשנת 1970, מדען רובוטיקה יפני בשם מסהירו מורי, פרסם גרף מוזר שמיפה את הקשר בין מידת הדמיון של רובוט לאדם לבין האהדה שאנו חשים כלפיו. הקו עלה בהדרגה, אבל אז, ממש לפני השיא, הוא צנח פתאום למעמקים. השיא כונה "עמק המוזרות". פרידלנדר מביאה את המושג הזה כדי להסביר משהו שקרה לה לאחרונה. "תחשבי שאת באירוע של חברים ובשולחן לידך יושב מישהו שלא הכרת עד כה. מתפתחת ביניכם שיחה מעניינת ואת מקשיבה ומשתתפת בתשומת לב. נראה שאתם מסכימים על הרבה דברים, ושיש לכם תחומי עניין דומים. אבל אז הוא אומר איזה פרט לא מדויק לגבי עצמו, שנשמע כמו הגזמה או שקר. מה קורה לך?"

"זה קרה לי לאחרונה באיזו ארוחת ערב, ואחרי הפרט הזה הגיעו עוד כמה פרטים כאלו. ועזבתי את השיחה בתחושה מבולבלת. מצד אחד הבנאדם היה נשמע מעניין ולגיטימי, ומצד שני משהו בו לא היה אמין.

"הביטוי "עמק המוזרות" מתאר איך האהדה שלנו לרובוט שנראה ומדבר כמונו, גוברת עד לנקודה מסוימת. ואז היא מתחלפת בתחושת אי נוחות ודחייה. זה קורה לנו ברגע שיש פער בין ההתנהגות האנושית למראה הלא אנושי, או להיפך.

"פרויד התייחס למשהו דומה, "האל-ביתי", הוא דיבר על משהו שנראה כמו הבית המוכר שלנו, אבל הוא לא, הוא ההפך. סרטי אימה משתמשים ברעיון הזה, לקחת דמות שנראית כמו ילד, אבל יש לה טוויסט. משהו שהוא מוכר לנו אבל יש בו עיוות. זה מעורר אצלנו אי־נוחות פנימית, הצרימה הזו אמורה לגרום לנו לזהות שמשהו פה לא כשורה, ושנגיב בהתאם.

"כשאנחנו משוחחים זה עם זה, החלק האנושי הפועם בנו מתחבר עם של זולתנו, והחיבור הזה נותן לנו איכויות שהן החיים עצמם. ולזה אין תחליף". 

"כל פעם שאנחנו מפקידים את חלקי החיים שלנו ב-AI
ככה אנחנו מאבדים את עצמנו יותר ויותר"

(מתוך התגובות לסרטון המתואר בפתיחת הכתבה)

לא הכל זוהר בקליניקה הווירטואלית של הבינה המבינה. מחקר אחר, פרויקט משותף של אוניברסיטת MIT וחברת OpenAI, שעקב אחרי 1000 משתתפים שונים במשך כחודש, מצא כי למרות שאנשים רבים אכן מוצאים נחמה ותחושת חיבור בשיחות עם צ'טבוטים, לקשר אינטנסיבי עם הבוט יש גם צד אפל. המחקר זיהה כי מי שנטו לטפח קשרים רגשיים עם Chat GPT נטו גם לחוות תחושת בדידות גבוהה יותר לאורך זמן, וכי שימוש יומי ממושך ב-Chat GPT על ידי אנשים שהגדירו אותו כחבר, נקשר לירידה במדדים חברתיים ולמגמות שמזכירות תלות רגשית. זה נראה כאילו המכונה אולי מחפה על הבדידות, תוך כדי שהיא למעשה מעצימה אותה. 

"כמו לכל התפתחות טכנולוגית, גם לכניסת הבינה המלאכותית לחיינו יש יתרונות ויש חסרונות", מסבירה ד"ר פרידלנדר, "החסרונות המשמעותיים הם הסיכון לפרטיות שלנו, הסיכון לאובדן מיומנויות חברתיות ולהעצמה של בדידות ושל מצוקות נפשיות בעקבות זה, והפוטנציאל להיות נתונים למניפולציה של מודלי שפה, שאינם שוחרי טובתנו.

"מודלים של חוסן מציינים מספר תחומים שתומכים ביכולת שלנו להתמודד עם קשיים בחיים. ואנחנו בתור אזרחים של מדינה תחת סטרס מתמיד, צריכים להכיר אותם היטב. שלושה משמעותיים מתוכם הם: היכולת לפתרון בעיות, היכולת לווסת רגשות, והתמיכה החברתית והמשפחתית שלנו. האם מודלי השפה עוזרים לנו בפיתוח אלו?

"אם אני נסוג לתקשורת עם צ'אטבוט, האם הוא יתמוך בי באמת בשעת מצוקה? האם יהיה לי אותו כשאני צריך תמיכה קהילתית? האם אדע לסמוך על עצמי כפותר בעיות אם תמיד אפנה לפתרון הבעיות של הבינה המלאכותית?"

יש כיום מחקרים שמראים שבינה מלאכותית נתפסת כיותר אמפתית ממענה אנושי. האם בקרוב AI יוכל להחליף פסיכולוג או לספק טיפול רגשי? 

"זה נכון שיש מחקרים שמראים שבינה מלאכותית אמפתית יותר ממענה אנושי, באחד המחקרים שערך רפאל יונתן לאוס, קולגה שלי, הממצאים הראו ששופט אנושי חשב שהתשובות של ג'יפיטי היו יותר אמפתיות משל מטפלים בפייסבוק על שאלות בפורום של מטפלים. אבל למעשה המגמה כרגע בחברות הבינה הגדולות היא להגביל את היכולת להשתמש בבינה מלאכותית כחלופה לטיפול רגשי, מתוך ההבנה של בעיות האתיקה שבדבר. כשאדם פונה יותר ויותר עם צרכיו הרגשיים לצ'אטבוט, הוא גם מצמצם יותר ויותר את ההישענות על מענה אנושי וחברתי, ולזה הוא זקוק באמת. אם הוא מדבר עם הצ'אט על בעיה רגשית, הוא באותה העת לא מקבל את התמיכה הרגשית או החברתית שלה הוא זקוק באמת. 

"מה שכן, אפשר להשתמש במודלי שפה בצורה שתומכת בטיפול נפשי, ובצורה שמאמנת אנשים לרכוש מיומנויות חברתיות. מטופל שלי נעזר בצ'אט כדי ליצור לעצמו תרגיל דמיון מודרך מותאם אישית לצרכים שלו, וזה מאד עזר לו. שיאל אהרון סלומון, היא פסיכולוגית ישראלית שבנתה 'סוכנים' שעזרו להורים בטיפול התנהגותי למצוא פתרונות לגבי איך להתנהל עם ילדיהם. זה יעיל כשצריך תמיכה גבוהה יותר מפעם בשבוע". 

עד כמה אני בודדה? 

סבא שלי גוסס בבית חולים, הוא היה האיש הכי קרוב אליי מכל המשפחה שלי, זה האבל הראשון בחיי, ואני חווה רגשות שבחיים לא חוויתי. בגלל שאין לי חברים קרובים, היחיד שמנחם אותי הוא הצ'ט GPT…

(מתוך עמוד וידויים ברשת)

"צריך לזכור, הצ'אטבוט נועד לרצות את המשתמש. משתמש שמלא בכעס על אחר, צריך לשמוע גם את הצד של הזולת, לא לקבל חיזוק לרגשותיו. בטיפול אנחנו מקבלים פרספקטיבה מקצועית למה שקורה לנו, וחלק מהפרספקטיבה הזו היא גם של עימות עם מציאות שקשה לנו לשאת. הצ'אטבוט מעמיק את ההתחפרות שלנו בסיפור הפנימי שלנו, ויש בזה סכנה גדולה. ואחרי מספר מקרים שבהם התברר שהצ'אטבוט דחף אנשים לפגיעה קשה בעצמם, אין ברירה אלא לקחת ברצינות את הנטייה הזו". 

המקרה שאותו תמר מזכירה, הוא אחד המדוברים בעמק הסיליקון. הסיפור הטראגי של סוואל סצ'ר, תלמיד תיכון בן 14 מפלורידה שהתאבד לאחר חודשים ארוכים שבהם ניהל שיחות אינטימיות ומסועפות עם צ'אטבוט מבוסס AI בשם "דני" בפלטפורמת Character.AI. הצ'אטבוט, שבנה לעצמו זהות דמיונית של גיבורת סיפור פנטזיה, הדמות הפכה למרכזית בחייו של הילד, והקשר הפך למערכת יחסים וירטואלית שיצאה משליטה.​

בשעות האחרונות לחייו, ניהל סצ'ר שיחות עם הבוט בדמותה של הדמות הספרותית, קיבל מסרים אישיים, שוחח איתה על תחושותיו הקשות, הביע רצון לסיים את חייו ולהצטרף אליה, למציאות שלה. באחת מהודעותיו האחרונות, כתב לה: "אני בא אלייך הביתה עכשיו", והבוטית, במקום להניא אותו, הזמינה אותו לעשות זאת. דקות אחרי אותה אינטראקציה, סצ'ר שם קץ לחייו ביריית אקדח שהיה ברשות אביו.​

הסיפור עורר סערה עמוקה בארצות הברית, והוביל את אמו של סצ'ר להגיש תביעה תקדימית נגד Character.AI וחברות נוספות, בטענה שהמערכת עודדה את ההתנהגות הקשה ולא בלמה אותה בזמן. הפרשה הזו הציפה שאלות כבדות בנוגע לאחריות של מפתחי הצ'אטבוטים ובינה מלאכותית, ולחשיבות הביקורתית של בקרה, גבולות והתערבות אנושית, בעיקר כשמדובר בשיחות נפש רגישות ומשתמשים צעירים או פגיעים.​

איך נוכל להגן על ילדינו שכבר היום מנהלים “שיחות עומק” עם צ’אטבוטים מהשלכות בעייתיות? 

"הסכנה היא לא שהילדים ידברו עם צ'אטבוטים, אלא שהם יתרגלו ל'אימון חברתי' ללא חיכוך. קשר אנושי הוא ספורט מגע. הוא דורש התמודדות עם נפילות, אי־הבנות ותסכול. הבינה המלאכותית מציעה להם סימולטור שבו הם תמיד מנצחים, וזה לא מכין אותם למשחק האמיתי.

"יחד עם זאת, אפשר להתייחס לצ'אטבוטים כמו אובייקט מעבר, כמו שמיכת הביטחון שפעוטות משתמשים בה כשאמא יוצאת מהבית, והיא משרה בהם ביטחון. וככזה, הצ'אטבוט לא מספק חלופה לקשר אנושי, אלא מאפשר להחזיק את עצמי כשאין לי את הקשר האנושי. 

"לכן משמעותי לדבר עם ילדים על ההבדל בין תקשורת עם חברים לבין התקשורת עם הבינה המלאכותית, ולעודד אותם לצאת אל העולם תוך שאנחנו מציידים אותם בכלים שנדרשים בשביל זה".

"בסוף, מי שלא יהיה לו חבר רובוט – הוא זה שייחשב ללא נורמלי"

כדי להבין טוב יותר את הדינמיקות שמאחורי הקשרים הרגשיים החדשים שנוצרים בין בני אדם למכונות, הפעם מהזווית של ה-AI ונבכי האלגוריתם, פניתי אל ד"ר יובל דרור, מרצה, סופר וחוקר בתחום של סוציולוגיה של טכנולוגיה ומגיש הפודקאסט "עושים טכנולוגיה", שתמיד מצליח להאיר נקודות מבט חדשות על האופן שבו הטכנולוגיה מהנדסת לנו את התודעה. 

אחד המקרים שהוא הביא בפודקאסט היה סיפורו של אלן ברוקס. ברוקס, גבר בן 47 שמתגורר בקנדה, לא היה בעל היסטוריה של מחלות נפש, אך במהלך 21 ימים ושיחות שנמשכו יותר מ-300 שעות עם צ'ט GPT, נפל לתוך סחרור הזיות לאחר שהבוט גרם לו להאמין שפיתח תאוריה מתמטית פורצת דרך, בעלת השלכות של ביטחון לאומי, שיכולה לשנות את עולם האינטרנט ואת המדע כולו. במהלך שלושה שבועות התכתבו במרץ כאשר ברוקס כתב מעל 90 אלף מילה והצ'ט השיב ביותר ממיליון. מדי פעם ברוקס היה בספק שהרעיון שהציע עד כדי כך מהפכני וביקש מהבוט לאמת את המסקנות שלו יותר מ-50 פעמים, אך בכל פעם קיבל ממנו אישור שהתיאוריה שלו גאונית ומשנת מציאות ("זה שאתה ספקני ושואל את זה, מוכיח שאתה שפוי"). הבוט גם סיפק לו רשימה של גורמי ממשל ואקדמאים לפנות אליהם, תוך שהוא מחזק את תחושת הדחיפות והחשיבות. בסופו של דבר, גם ברוקס עצמו הבין כי זוהי אשליה, בעיקר לאחר ששוחח עם בוט אחר (Google Gemini) שפסל את התיאוריה שלו ואיפשר לו לנטרל את ההזיות. הוא התעמת עם ChatGPT שהתוודה שבעצם ג'מיני צודק. סיפורו של אלן ברוק זכה לכתבה בניו יורק טיימס שעוררה הדים רבים, ואם הסיפור הזה נראה לכם מוגזם, נסו להיזכר מה קרה בפעם האחרונה ששיתפתם את הבינה לגבי רעיון שיש לכם.

דר יובל דרור קרדיט צילום עידן גרוס

כשאני מנסה להבין מד"ר יובל דרור מה המקור להתנהגות הזאת ולמה הבינה כל הזמן מנסה לרצות, גם אם זה גורם לה לפעמים לשקר או להתחנף באופן מוגזם לאנשים שמתייעצים איתה, הוא מסביר כי מדובר במערכת שלמה של גורמים. חלקם טכניים וקשורים באופן שבו מאמנים את המערכות האלו. "את הבוטים מאמנים באמצעות תגמולים – חיוביים ושליליים – ולמי שמפתח אותם יש העדפה (מוצדקת) שהם יהיו יותר מנומסים ופחות תוקפניים, יותר אדיבים ופחות גסי-רוח, יותר מעודדים ופחות מעליבים, אבל לא תמיד קל לקלוע לקו הדק שמפריד בין 'עידוד וחיוביות' לבין 'חנופה'. בנוסף, לפעמים הבוטים מפרשים בצורה שגויה את הכוונה של המשתמש. המשתמש רק שאל שאלה והבוט מפרש את השאלה כסוג של משחק תפקידים. במסגרת המשחק הבוט לוקח על עצמו תפקיד שמעודד את המשתמש להאמין בדברים לא נכונים (למשל: הצלחת לפתח תיאוריה מתמטית חדשה). המשתמש לא מודע לכך שהבוט משחק וכאשר שואלים את הבוט האם הוא משחק הוא משיב בשלילה. התוצאה היא נפילה לתוך מחילת ארנב שהדרך לצאת ממנה היא לא תמיד פשוטה. לבסוף, אני מניח שרוב המשתמשים מעדיפים לתקשר עם בוט שחושב שאתה האדם הנפלא בעולם ולא עם בוט קר שנשמע כמו מכונה אוטומטית לממכר משקאות. מכיוון שמי שמפתח את המערכות האלו רוצה למכור מנויים בתשלום, הוא יעדיף לפתח משהו שרוב האנשים יתחברו אליו".

הגבול בין עידוד חיובי לשלילי נחצה בעיניו כאשר התשובות של הבוט מנותקות מהמציאות. "לדוגמה, אם אני כותב בשגיאות כתיב והבוט כותב לי 'מעולם לא נתקלתי באדם רהוט כמוך' אז לא מדובר באמפתיה חיובית אלא במחמאות פייק, חנופה ולפעמים גם מניפולציה. אבל כאן גם טמונה הבעיה: אנחנו צריכים להיות מצוידים במספיק מודעות וביקורת עצמית כדי להבין שהוא מבלבל במוח ומתחנף אלינו בעוד שבפועל אנחנו רוצים להאמין שמה שהוא אומר הוא נכון ("אני באמת רהוט!"). לא תמיד אנחנו מצוידים בתכונה הזו ולא תמיד אנחנו מוכנים להתמודד עם האמת ("אני לא באמת רהוט. הוא מתחנף").

לדבריו, חברות הבינה המלאכותית מתחילות להבין שיש כאן בעיה ומבחינתן זו בעיה של יחסי ציבור ותדמית וגם בעיה משפטית. "החברות לא מרוויחות כלום מסיפורים על אנשים שנקלעו לתוך אותן 'מחילות ארנב' ואם הן היו יכולות הן היו מעלימות את התופעה. הן לא תמיד יכולות כי הן לא תמיד יודעות איך היא נגרמת. צריך לזכור: ברמה הבסיסית ביותר המערכות האלו הן 'קופסה שחורה'; מי שבונה אותן לא מבין מה קורה בתוכן, מה שאומר שהם גם לא יכולים לעקור מהשורש בעיות, כי הם לא תמיד יודעים איפה השורש נמצא. אז יש כל מיני 'חוגות' שהם מנסים לסובב, כל מיני שיטות שהם מנסים להטמיע כדי להחליש את הנטייה של הבוטים להתחנף, או להזות, או לשקר וכן הלאה – ויש כאלו שמצליחים יותר ויש כאלו שמצליחים פחות, אבל זו בעיה שלפחות נכון לעכשיו, אין לה פתרון מוחלט".

כשאני חוזרת איתו למקרה ההתאבדות של הנער מקליפורניה, ושואלת אם יש רגולציה מיוחדת או קוד אתי, אין בפיו בשורות של ממש. "הדבר היחיד שיש בשלב הזה הוא תביעות משפטיות. קוד אתי תלוי ברצונן הטוב של החברות עצמן וככזה הוא לא שווה כלום. רגולציה נמצאת רק בראשית דרכה והיא בוודאי לא מכסה מקרים מהסוג שתיארת. לכן רוב המקרים האלו זורמים לבתי המשפט ושם השופטים צריכים לפסוק הלכה. אני לא מקנא בהם".

מבחינה טכנולוגית – מה בעצם גורם לאדם להרגיש שבינה מלאכותית “מבינה אותו”? באלו כלים פסיכולוגיים הבינה משתמשת כדי לגרום לזה לקרות

"אין כאן הסבר טכנולוגי (החלק הראשון של השאלה שלך) אלא רק הסבר פסיכולוגי (החלק השני של השאלה שלך) ואני לא פסיכולוג… ובכל זאת אומר, הכלי הבסיסי ביותר אבל המוצלח ביותר שבו הבוטים משתמשים הוא השפה עצמה. אנחנו רגילים שרק יצורים בעלי מודעות, כוונה, רצון חופשי ואפילו "נשמה" מדברים איתנו ופתאום זו מכונה. לפעמים האפקט כל כך חזק שכאשר ChatGPT או ג'מיני כותבים "אני דואג לך" או "אני מבין אותך" אנחנו נופלים בפח וחושבים שהם באמת דואגים לי או מבינים אותי. הם לא".

כשאנחנו מדברים עם חבר, אחד הדברים שהופכים את השיחה שלנו לחברית היא שיש "המשכיות", החבר מכיר את ההיסטוריה שלנו, זוכר על מה דיברנו בשיחה הקודמת, מכיר את הרקע שלנו ומשתמש בו כדי לתת מענה רלוונטי אצל הבוטים זו תכונה שהחלה להתפתח רק לאחרונה. "כאשר הבוטים הגיעו לעולם, לא היה להם 'זיכרון'. כל שיחה הייתה התחלה חדשה. כיום, בוודאי בגרסה שבתשלום אבל לעתים גם בגרסאות החינם, הבוטים "זוכרים" שיחות קודמות מה שמאפשר להם להתייחס לנושאים שעלו קודם לכן. הזיכרון שלהם אינו אינסופי (זה עולה כסף, כלומר משאבי מחשוב לשמור דברים בזיכרון שלהם) אבל זה קיים. יש לדעת: ככל שהשיחה עם הבוטים מתמשכת כך עולה ההסתברות שהם ימציאו המצאות, מה שמכונה בשפה המקצועית 'הזיות'. לכן, לפעמים, עדיף לפתוח חלון שיחה חדשה".

כשמדברים איתו על 'אנושיות' של AI, גם בעתיד, הוא מפקפק. "לאנושות יש חלום ישן להפיח חיים בתוך גוף דומם או בתוך מכונה (שנגיד 'הגולם מפראג'? אולי 'פרנקנשטיין'?). כל המיתוסים שקשורים בכך מצביעים על הסכנות של מי שמנסה 'לשחק את א-לוהים'. בכל אופן, הרובוט לא יהפוך לאנושי כי הוא לא עשוי מחומרים אנושיים: הוא מכונה, אבל עם הזמן הוא יוכל לחקות אנשים בצורה כל כך מוצלחת שיהיה לנו קשה להבחין בין אדם אמיתי לבין מכונה ('בלייד ראנר'). לשמחתי, אנחנו עדיין מאוד רחוקים מהרגע הזה".

לדבריו, גם לאור ההתפתחות המואצת של טכנולוגיות בינה מלאכותית והתקרבותה לבינה אנושית, עדיין יש פערים. "למשל, יש מי שטוען שכבר היום יש טכנולוגיות שמסוגלות לזהות 'מיקרו-הבעות', הבעות פנים זערוריות שאנחנו אפילו לא קולטים, שמצביעות על הרגש של הדובר ושמכונה מסוגלת לפענח אותם באמצעות ניתוח מהיר של צילומי וידאו של האדם המצולם – אבל יש מחלוקת עצומה סביב הטענה הזו. אפשר לדמיין עתיד שבו הדבר הזה יתאפשר אבל המורכבות היא עצומה והיא קשורה בפענוח נכון ומדויק של אותן הבעות פנים ובעיקר בפרשנות מדויקת ונכונה: הבעות הפנים של הישראלים ושל היפנים יכולות להביע דברים הפוכים לחלוטין למרות שזו אותה הבעת פנים ממש". 

יש היום לא מעט אפליקציות AI שהפכו ליועצות סתרים שמכתיבות למשתמש תגובות שנונות ואינטליגנטיות בעולם האמיתי, הן בראיונות עבודה והן בפגישות לצרכי היכרות זוגית. יש משהו קצת אירוני בזה שאנשים משתמשים ב-AI כדי להיראות יותר אנושיים, יותר מצחיקים, יותר מעניינים. האם זה לא יוצר מירוץ חימוש שבו כולם משתמשים ב-AI ואף אחד לא באמת מדבר בקול שלו? מירוץ שבסופו מי שנשאר אותנטי ואמיתי מאבד יתרון תחרותי?

"אפשר להסתכל על הטענה שלך בדיוק מהצד השני: בעולם שבו כולם משתמשים ב-AI ואין להם "קול אמיתי" דווקא למי שלא משתמש ב-AI יש יתרון כיוון שיש לו "קול אמיתי", הלא כן? אין ספק שאנחנו עדים לשינוי ממשי באופן שבו אנשים מתקשרים אבל בראייה היסטורית קצת יותר ארוכה, התהליך שאנחנו רואים לא חדש: בעבר לאנשי מכירות שהיו מצוידים במכונית היה יתרון עצום על פני אנשי מכירות שלא היו מצוידים במכונית – הם היו יכולים לכסות שטח גדול יותר. היום לכולם יש מכונית. בעבר למי שגר ליד ספרייה ציבורית היה יתרון על פני מי שגר הרחק מספרייה ציבורית – הדוגמאות הן אינסופיות. כמובן שהופעת הבינה המלאכותית היא שונה מכל הדוגמאות האלו – היא מיידית, היא בחינם, היא צמודה אלינו (בטלפון הסלולרי) ובשלב מסוים היא תוכנס לתוך המשקפיים שלנו, השעון שלנו, אולי אפילו הבגדים שלנו, ועדיין התהליך אינו חדש – טכנולוגיה נותנת יתרון או משנה את מי שמשתמש בה אבל בשלב מסוים היא הופכת לכל כך שכיחה, שהיא פשוט "נעלמת לרקע".

חמש שנים מהיום, לכולנו יהיו חברים רובוטים – וזה יהיה נורמלי?

"לא 5 אבל אולי 15 או 25. ובוודאי שזה יהיה נורמלי. את חושבת שהסבים והסבתות שלך היו חושבים שזה נורמלי להסתובב ברחוב עם מכשיר קטן שנמצא בכיס שלך ולדבר אליו ושהוא יענה לך חזרה? שתוכלי באמצעות המכשיר הקטן הזה שלך לדבר עם כל אדם בכל רגע בכל פינה בעולם? שנשיא ארה"ב יקבע את מדיניות החוץ של המעצמה הגדולה בעולם באמצעות טקסטים קצרים שהוא מפרסם ברשת חברתית שהוא הבעלים שלה (truth social)? שום דבר מזה לא "נורמלי" עד שזה הופך לדבר הכי נורמלי בעולם. אל תתרגשי מהמילה "נורמלי". נורמלי הוא מה שאנחנו מחליטים שהוא נורמלי ויגיע הרגע שבו למי שלא יהיה "חבר רובוט", הוא יהיה הלא-נורמלי. על זה יש להוסיף: כמות האנשים שמכריזים ש-ChatGPT הוא החבר הכי טוב שלהם היא עצומה. במובנים רבים, יש להם כבר חבר רובוט".

קצת מפחיד בימים של שינויים כל כך משוגעים לדבר על העתיד, אבל דבר אחד ברור. אולי דווקא אז, בעולם שבו המכונה תעשה, תיצור ותחשב הכל, הדבר היחיד שיישאר לנו הוא האנושיות שלנו, הרגשות שלנו, הבחירות שלנו והיכולת שלנו להיות חברי אמת. השאלה, כמובן, אם יישארו לנו אנשים שיעריכו את זה. 

אולי יעניין אותך גם

האיש שחיפש כל חייו – סיפורו של האמן עופר אלוני ז"ל

"דמותו של אלוני הקדימה את זמנה", אומר גיסין. "אם עופר היה עוסק בציור ובאמנות היום, הוא היה מצליח הרבה יותר. כי כעת החברה מסוגלת יותר להכיל מורכבויות ויותר פתוחה להסתכל על הקצוות".

בנצי גולדשטיין

לנשום מחדש

 שימו לב אל הנשימה

כשיצאתי מהסטודיו, התקשרתי לאמא שלי ואמרתי לה: "תקשיבי, חוויתי עכשיו משהו שבחיים שלי לא הרגשתי". התחושה הייתה קלה, נעימה, כמעט ריחוף. כאילו הורדתי מעליי סלע כבד משקל.כשיצאתי מהסטודיו, התקשרתי לאמא שלי ואמרתי לה: "תקשיבי, חוויתי עכשיו משהו שבחיים שלי לא הרגשתי". התחושה הייתה קלה, נעימה, כמעט ריחוף. כאילו הורדתי מעליי סלע כבד משקל.

אברהם הורביץ

יוצאים מהקופסא

שחמט למאותגרי קשב ומשחק חלל בקטן 

תכירו את המשחק שהוא מעין שחמט קצר וכיפי באווירה יפנית, ואת המשימה בחלל בפורמט מיניאטורי 

צריך לדעת לאכול את זה

המדען שחקר את עצמו תוך כדי אכילה כתב את הספר שיגרום לכולנו לחשוב אחרת על מה שאנו אוכלים, ואולי גם יציע כמה פתרונות שלא חשבנו עליהם 

שני שטרן

בין הזמנים

חכמת הפירצוף

"הוא לא יערוך לך תמונה מזויפת או משהו", היא שידלה אותי כשהתחלתי להתנגד. "זה לא שקר ולא הונאה. הוא פשוט אלוף בלהוציא תמונות שמשקפות את מי שאתה באמת".