כדי לא לשבור לה את הלב: למרות שהבן נהרג - הוא ממשיך "לדבר" עם אימו

משפחה בסין יצרה דמות AI של גבר שנהרג בתאונה, כדי שאימו בת ה-80 תמשיך להאמין שהוא חי ולעקוב אחריו דרך שיחות וידאו. המהלך עורר סערה: בין חמלה לשקר מתמשך

למרות שהבן נהרג - הוא ממשיך "לדבר" עם אמו
למרות שהבן נהרג - הוא ממשיך "לדבר" עם אמו | צילום: שאטרסטוק

בשיחת וידאו רגילה למראה, אישה מבוגרת שואלת את בנה אם אכל, אם הוא שומר על עצמו ואם קר לו. הוא עונה לה ברוגע, מחייך, מבטיח שיגיע לבקר כשיתפנה מהעבודה. רק פרט אחד חסר בסיטואציה הזו: הבן הזה כבר לא בחיים.

הסיפור מגיע מסין, שם משפחה החליטה שלא לספר לאם בת ה-80 שבנה נהרג בתאונת דרכים. במקום זאת, הם פנו למפתח טכנולוגי שיצר עבורם "כפיל דיגיטלי", דמות מבוססת בינה מלאכותית שמחקה את קולו, מראהו ואפילו שפת הגוף שלו.

פנו למפתח טכנולוגי שיצר עבורם "כפיל דיגיטלי"
פנו למפתח טכנולוגי שיצר עבורם "כפיל דיגיטלי" | צילום: שאטרסטוק

המערכת נבנתה על בסיס תמונות, סרטונים והקלטות קול של המנוח. לפי הדיווחים, התוצאה הייתה מדויקת באופן מטריד: אותה אינטונציה, אותם הרגלי דיבור, אפילו מחוות קטנות כמו נטייה קדימה בזמן שיחה. האם, שלא עודכנה על מותו, ממשיכה לשוחח איתו כאילו דבר לא קרה.

המשפחה בחרה במהלך הזה מתוך ניסיון להגן עליה. הבן היה ילדה היחיד, והיא סובלת גם ממחלות לב. מבחינתם, האמת עלולה הייתה להיות מכה שהיא לא תעמוד בה. כך נוצר פתרון טכנולוגי - שמאפשר לה להמשיך לחיות בתוך גרסה "מרוככת" של המציאות.

אבל כאן מתחיל דיון נרחב יותר: טכנולוגיה שנועדה לחקות חיים, משמשת כדי להסתיר מוות. מה שנראה כמו שימוש מתקדם ב-AI הופך לכלי שמתחזק אשליה יומיומית: שיחה, חיוך, הבטחה לביקור - כשבפועל אין מי שיגיע.

הסיפור הזה עורר דיון סוער ברשתות החברתיות בסין. חלק מהגולשים ראו בכך מחווה של חמלה, ניסיון אנושי למנוע סבל מאדם מבוגר ושברירי. אחרים טענו שמדובר בהונאה רגשית עמוקה, שמונעת מהאם להתמודד עם האמת ועם תהליך האבל.

המקרה מציף שאלה רחבה יותר: ככל שהטכנולוגיה משתפרת, הגבול בין זיכרון לחיקוי הולך ומטשטש. כבר היום יש חברות שמציעות "החייאה דיגיטלי" של אנשים שנפטרו, דרך צ'אטבוטים, קול מסונתז או דמויות וידאו. אבל כשהשימוש עובר משימור זיכרון להחלפת המציאות עצמה, הדילמה הופכת מורכבת הרבה יותר.

"החייאה דיגיטלי
"החייאה דיגיטלי | צילום: שאטרסטוק

בינתיים, האם ממשיכה לנהל שגרה רגילה של שיחות עם בנה, בלי לדעת שהן מבוססות על אלגוריתם. השאלה שנשארת פתוחה היא לא רק אם זה נכון או לא, אלא כמה זמן אפשר להחזיק מציאות כזו - ומה קורה כשהיא נסדקת.