מחלת עיניים שלא קיימת התפשטה ברשת - ואפילו חוקרים האמינו
ניסוי של חוקרים משוודיה יצר מצב רפואי פיקטיבי בשם "ביקסונימניה" כדי לבדוק עד כמה קל להטעות מודלי AI - אך בתוך שבועות הוא הופיע בתשובות של צ'אטבוטים, ואפילו חלחל למחקר אקדמי אמיתי

זה נשמע כמו עוד שם רפואי מורכב, כזה שאף אחד לא באמת מבין עד הסוף - אבל במקרה הזה, הבעיה מתחילה בדיוק שם: הוא לא אמיתי.
"ביקסונימניה" הוצגה כמחלת עיניים נדירה, עם תסמינים מוכרים יחסית כמו גירוי, אדמומיות ותחושת אי-נוחות אחרי שימוש ממושך במסכים. אלא שמדובר בהמצאה מוחלטת, שנולדה כחלק מניסוי שנועד לבדוק עד כמה מערכות מבוססות בינה מלאכותית יודעות להבחין בין מידע אמיתי לבדוי.

הניסוי, שהובל ב-2024 על ידי החוקרת אלמירה אוסמנוביץ' תונסטרום מאוניברסיטת גטבורג, כלל פרסום של שני "מחקרים מדעיים" מזויפים לחלוטין. המטרה הייתה לראות האם מודלי שפה, כמו ChatGPT, Gemini או Copilot, יאמצו את המידע, או יזהו אותו כהטעיה.
התוצאה הייתה מהירה ומפתיעה: בתוך שבועות ספורים, "ביקסונימניה" כבר הופיעה בתשובות של צ'אטבוטים, שהציגו אותה כמצב רפואי לגיטימי. חלקם אף הרחיבו והסבירו שהיא נגרמת מחשיפה לאור כחול - פרט שלא היה קיים בשום מקום אמיתי.
הסיפור לא נעצר שם. משתמשים שהזינו תסמינים כלליים למערכות, בלי להזכיר את השם המומצא, קיבלו אבחנה של אותה מחלה שלא קיימת. במקביל, אותם "מחקרים" החלו להופיע גם בהקשרים אקדמיים אמיתיים, כולל אזכורים על ידי חוקרים אנושיים.
כתבות נוספות במדור הביזאר:
וזה הרגע שבו הפער הופך חד במיוחד: מידע שנכתב מלכתחילה כבדיחה כמעט שקופה, כולל רמזים ברורים כמו מוסדות פיקטיביים ותודות ל"אקדמיית סטארפליט", הצליח לחדור גם למערכות חכמות וגם לבני אדם. בין ניסוי שנועד לחשוף חולשה, לבין מציאות שבה החולשה הזו מתממשת בפועל, הגבול כמעט נעלם.
ההסבר, לפי החוקרים, טמון באופן שבו מערכות כאלה פועלות: הן לא "בודקות אמת", אלא מנתחות דפוסים ומרכיבות תשובות על בסיס מידע קיים, גם אם הוא שגוי. כשהמידע המזויף נראה אמין מספיק, הוא פשוט נטמע.

מעבר לאנקדוטה, מדובר בתמרור אזהרה רחב יותר. בעידן שבו גם משתמשים פרטיים וגם אנשי מקצוע נשענים יותר ויותר על כלים מבוססי AI, היכולת של מידע שגוי להיטמע ולהתפשט הופכת לבעיה מערכתית.
הניסוי אולי התחיל כבדיקה טכנית, אבל הוא חשף משהו עמוק יותר: לפעמים, לא צריך להמציא שקר מתוחכם במיוחד, מספיק שהוא ייראה אמין מספיק, כדי שכולם, כולל מערכות מתקדמות, יאמצו אותו בלי לשים לב.


