כש"מוג'האדין המקלדת" גילו את הבינה המלאכותית
רשת של אלפי דוברי ערבית מתנדבים מכל העולם, בראשות גולה מצרי המזוהה עם האחים המוסלמים, מציפה את רשת X במסרים שנועדים ליצור תבוסה פנימית בחברה הישראלית. זאת באמצעות חשבונות מזויפים בעברית שמתחזים לישראלים, האשטאגים שמיועדים ליצור טרנדים ואלפי פוסטים ותגובות ביום שמחלחלים לתוך השיח הישראלי הפנימי ברשת. על מגבלות השפה מנסים חבריה להתגבר באמצעות כלי בינה מלאכותית יוצרת שנועדו להקטין את חשד הגולשים הישראלים.
הכירו את מוחמד ר'אזי: מומחה רשתות חברתיות ויישומי בינה מלאכותית, שונא ישראל מושבע וחלק ממערך מתנדבים מכל רחבי הגלובוס שמתערבים בשיח הפנימי בישראל. את ר'אזי גילינו כחלק ממחקר על רשת זרה ענקית של אלפי דוברי ערבית מתנדבים מכל העולם. בראש הרשת עומד גולה מצרי המזוהה עם תנועת האחים המוסלמים של מצרים ומתגורר בטורקיה. בסיס ההפעלה של הרשת הוא ערוץ טלגרם בשם ISNAD - Palestine שיש בו מעל 15 אלף חברים. הרשת פועלת מאז אוקטובר 2023, ובדצמבר החלה לכוון את האש לכיוון השפעה פנים-ישראלית. כך, היא מגלה הבנה רבה בסכסוכים הפנימיים בישראל ומטביעה את רשת X (לשעבר טוויטר) בעברית במסרים שתכליתם ליצור תבוסה פנימית בחברה הישראלית. הכל באמצעות חשבונות מזויפים בעברית (מה שמכונה "בובות גרב") שמתחזים לישראלים, יוצרים האשטאגים שמיועדים ליצור טרנדים ומפרסמים אלפי פוסטים ותגובות ביום - לתוך השיח הישראלי הפנימי בטוויטר.
עד כן אין הרבה חדש. הממד הדיגיטלי של מלחמת "חרבות ברזל" הוא חלק אינטגרלי מהמלחמה. הוא משפיע על המרחב שבו מתנהלת המלחמה, על השחקנים הפעילים בה ועל הטקטיקות שבהן נעשה שימוש. לא מדובר רק בישראל מול חמאס, בטריטוריה של רצועת עזה, אלא בריבוי שחקנים – מדינתיים (איראן, רוסיה ועוד) ולא מדינתיים (התארגנויות של אזרחים ופעילים, קבוצות פליליות, ארגונים סמי ממשלתיים כמו כוח וגנר הרוסי ועוד). הכלים שבהם נעשה שימוש הם מגוונים – מבוטים ועד חשבונות מזויפים, מרשתות הדהוד והשפעה ועד לתמונות שנלקחו ממקומות גיאוגרפיים רחוקים או מתקופות זמן אחרות.
יחד עם כל אלה מגיעים גם כלי הבינה המלאכותית המבוססים על מודלים גדולים של שפה, שברובם פרצו אל חיינו מסוף 2022. החשש שכלים אלה ישמשו למבול של דיסאינפורמציה שתשמש לכל דבר שדיסאינפורמציה משמשת עבורו – קמפיינים של בחירות, התערבות זרה בענייני מדינות, וגם לתמיכה בצד כזה או אחר במלחמה – מעסיק מאוד את מקבלי ההחלטות בעולם. פול נקסוני, מפקד פיקוד הסייבר של ארה"ב וראש ה-NSA, אמר לפני כמה חודשים בראיון לאתר פוליטיקו שהוא "עוקב בזהירות רבה" כדי לראות אם הרוסים מתחילים לשלב כלי בינה מלאכותית גנרטיביים במאמצי הדיסאינפורמציה שלהם.
העניין הוא שכאשר מדברים על בינה מלאכותית והפצת דיסאינפורמציה, מיד חושבים על טקסטים, תמונות, קובצי קול וסרטוני וידיאו סינתטיים, מה שמכונה "דיפ-פייק". ללא ספק, כולם – מפוליטיקאים כמו נתניהו, זלנסקי ואובמה ועד שחקנים וזמרים כמו טיילור סוויפט, מבינים עכשיו עד כמה אותנטי הם עשויים להיראות ולהישמע מבלי שאמרו דבר. זה לגמרי מפחיד. אבל, האמת היא שדיפ-פייקים וטקסטים יצירי מכונה הם החלק הקטן של מה שבינה מלאכותית עלולה לאפשר לצורכי מניפולציה על דעת הקהל. ברשת שחשפנו, הקריאה למתנדבים היא שלא ליצור תמונות באמצעות בינה מלאכותית ולהעלות אותן לרשת. זאת, משום שקל לגלות תמונות כאלה, מה שהופך את השימוש בהן לבלתי יעיל.
נחזור לר'אזי ולרשת האחים המוסלמים: מנהלי הרשת מתאמצים לרתום כלי בינה מלאכותית כדי לפתור את הבעיה המציקה באמת: מגבלת השפה. אכן, פעמים רבות קל לנו, כישראלים, לזהות רשתות ממוצא איראני למשל, בגלל השפה הקלוקלת והטעויות בעברית בתכנים שהן מפרסמות. ברשת שחשפנו, הפנימו את החולשה הזאת של מבצעי ההשפעה, ומנסים למצוא דרכים להתגבר עליה. הדרך הראשונה שבה נעשה שימוש היא הדבקת תגובות מועתקות מחשבונות ישראליים, שאותן אחר כך מהדהדים בחשבונות של הרשת שוב ושוב, וכך קשה לדעת שמדובר בתוכן שמקורו זר. זאת שיטה שלא כוללת שום טכנולוגיה מתקדמת. בהמשך, התחלנו, לראות דרכים נוספות, שכוללות פניה לכלי בינה מלאכותית יוצרת. מנהלי הרשת מייחסים חשיבות גדולה לצ'אט ג'יפיטי, ויש להם מנהל אחראי על התחום ועוד ארבעה מומחים. ערוץ הטלגרם גדוש בסרטוני הדרכה כיצד להשתמש בצ'אט ג'יפיטי ויש ניסיון לדחוף את המתנדבים להתנסות בפלטפורמה. השאלה היא לאיזה צורך. ובכן, ראשית, קראו מנהלי קבוצת הטלגרם למתנדבים להשתמש ביישומון שמסוגל לחולל שמות בעברית. זאת, כדי לבחור שמות "אותנטיים" לחשבונות המזויפים שהם יוצרים ולהקטין את החשד של ישראלים שנחשפים אליהם.
בהמשך, התחלנו לראות הודעות המדריכות את המתנדבים כיצד להשתמש בצ'אט ג'יפיטי כדי להכניס אליהם תוכן, ולבקש מהם שיוציאו אותה בווריאציות ניסוחיות שונות. עלינו לזכור: אחת הדרכים הטובות לגלות פעילות מתואמת לא אותנטית ברשתות היא כשתוכן חוזר על עצמו בצורה זהה בחשבונות רבים. השימוש בווריאציות מקשה מאוד על זיהוי פעילות לא אותנטית.
בשלב הבא, ראינו שמנהלי הרשת מפנים את המתנדבים לתוכנות תרגום. ברמה הפשוטה, הופנו המתנדבים לאתרי תרגום מבוססי צ'אט ג'יפיטי, כמו למשל spc-international.
כאן אנחנו חוזרים לר'אזי, שיצר לפני חודש תוסף בתפירה אישית על צ'אט ג'יפיטי שנקרא "מתרגם מאימוג'י לעברית", והעלה אותו כקישור בקבוצת הטלגרם. התוסף הזה מאפשר להכניס מילת רגש באנגלית או אימוג'י, ולקבל משפט, בעברית מצוינת, שמתאר את הרגש הזה. משפט שאפשר לגזור מיד ולהכניס כציוץ, תגובה או כל תוכן אחר של הפעילים ברשת ההשפעה.
הנה כי כן: יישום "תמים" לגמרי, חלק ממיליוני יישומי ג'יפיטי תפורים לפי מידה, שמשתמשים יכולים ליצור לצורך מילוי משימות שונות, שנוצר ומשמש בפועל, כרשת השפעה המבקשת לפגוע בחברה הישראלית. מי לוקח אחריות על זה? הכלים הולכים ומשתכללים: לא רק המודלים עצמם אלא היישומים שאפשר לפתח באמצעותם, שחלקם מגיעים אל קהלי היעד שלהם באמצעות לינקים ואחרים נמצאים בחנות היישומים שפתחה חברת OPEN AI בתוך צ'אט ג'יפיטי. יש מגוון אדיר של יישומים "תפורים לפי מידה" כאלה: מבוטים טלפוניים שיודעים לקיים שיחות שמחליפות מתנדבים אנושיים, עובר בתוכני וידאו היפר-פרסונליים וכלה בתוכנות תרגום משפה לשפה. לשם מה מיועדים כל אחד מהיישומים האלה? ובכן, הם מה שנקרא dual use, ניתן להשתמש בהם לטוב וניתן גם, כמו שראינו ברשת שחשפנו, לנצל אותם לרעה. הצורך לפקח על היישומים עלה בתקופה האחרונה כאשר חברת OPEN AI חסמה את האפשרות לבנות צ'אטבוטים של מועמדים בבחירות, ובכלל זה מחקה את הצ'אטבוט Dean.bot של המועמד הדמוקרטי דין פיליפס. אבל מערכת התרגום לעברית של ר'אזי לא נחסמה, למרות שפגיעתה רעה לא פחות.
בינה מלאכותית משנה את מה שאנחנו יודעים גם על קמפיינים של בחירות וגם על דיסאינפורמציה סביב סכסוכים ומלחמות, בשלושה מרחבים: ראשית, מרחב השחקנים. אין עוד צורך במומחי-על אלא באנשים פרטיים שהכלים נגישים עבורם, שלמדו כמה קל ליצור אפליקציות ולהנדס פרומפטים. זה מה שיכולנו לראות באופן כל כך בוטה ברשת האחים המוסלמים. לא מדובר במדינה שאפשר לבוא אליה בטענות, מכוח דיני המלחמה או כללי המשפט הבינלאומי, אלא במתנדבים. אבל ההשפעה והנזק שרשת בגודל כזה יכולה ליצור, היא עצומה.
שנית, מרחב התוכן, שהופך לאמין יותר ופחות ניתן לזיהוי מפני שאפשר ליצור המון גרסאות של אותו התוכן באמצעות הבינה המלאכותית. אכן, תוכן יציר מכונה - ממאמרי חדשות, פוסטים וציוצים ועד הודעות דוא"ל למטרות פישינג, הודעות קוליות וסרטוני דיפ-פייק – הם דוגמאות בולטות, אבל הם רק קצה הקרחון. חברות סטארטאפ מציעות היום מערכות קוליות לניהול שיחות שכנוע בשפה טבעית ואמינה וברמה מרשימה, בלי סיסמאות או משפטים שנקבעו מראש. אין יותר צורך במטה מתנדבים שיתקשר לאנשים. המכונה יודעת לנהל מיליון שיחות במקביל, בזול ובלי להתעייף. מה נעשה כאשר ר'אזי וחבריו יגלו זאת?
שלישית, מרחב סוגי הפעילות. מודלים מבוססי בינה מלאכותית לא רק יוצרים תוכן אלא יכולים לחזות במדויק את השפעת ההונאה על משתמשים ברשתות ולנהל מעקב אחר המידע שיש בו צורך כדי להמשיך ולהונות. הם יודעים גם ליצור השפעה על האלגוריתמיקה של הפצת מידע ברשתות חברתיות, כלומר ליצור הנדסה חברתית בקנה מידה רחב. את המומחיות הזאת יכולנו לזהות ברשת שחשפנו. השאלה היא מה יקרה כשזה יילקח צעד אחד קדימה. אין זה סוד שמערכות בינה מלאכותית מסוגלות לבצע את המידול והתכנון החברתי הדרושים לשחקן כדי להשיג ולהפעיל השפעה פוליטית, לא רק ברמת המיקרו אלא בתרחישים עם שחקנים מרובים והקשר חברתי עשיר, כלומר - הנדסה חברתית בקנה מידה רחב.
על מי צריכה להיות האחריות? על המודלים של השפה, על היישומים שנכתבים באמצעותם ועל מה שנמצא בחנויות היישומים שלהם? על הרשתות החברתיות שדרכן מתפזרים התכנים? אכן, אפשר לראות "מעקות בטיחות" במודלים הגדולים של הבינה המלאכותית, ומי שמשתמש בצ'אט ג'יפיטי מגלה שלפעמים הוא מסרב לענות על שאלות מסוימות או מודיע למשתמש ("כמודל שפה גדול, איני יכול...") שהוא מסרב לבצע מטלות מסוימות, כמו יצירת ביטויי שנאה. בהוראות הבטיחות של היישומים מבוססי צ'אט ג'יפיטי נכתב כי הוקמו מערכות שתכליתן לבדוק שיישומים אינם מנוגדים למדיניות השימוש, ומטרתן "למנוע ממשתמשים לשתף תכנים מזיקים, כולל אלה שכוללים פעילות הונאה או תוכן שנאה". ומה לגבי יישום שבסך הכל מאפשר לתרגם אימוג'י לעברית נחמדה, אבל כל תכלית יצירתו לקדם רשת שמטרתה להונות ישראלים? עוד נכתב בתנאי השימוש כי חברת Open AI תמשיך לנטר וללמוד כיצד אנשים משתמשים ב-GPT ותעדכן ותחזק את אמצעי הבטיחות שלה בהתאם. ומה יהיה עד אז? לכך אין תשובה כרגע. עוד לא ראינו גם אבל עוד לא ראינו ניטור יזום של שימוש לרעה, למשל בצורת הפעלת מערכות שיזהו אם משתמש יוצר כמות גדולה של מסרים רגישים פוליטית בטווח זמן קצר וישלחו את המשתמש לבדיקה נוספת.
כדאי להדגיש: Open AI אינה לבד. בימים האחרונים דיווחו בוחרים בניו המפשייר, ארה"ב, על כך שקיבלו הודעות קוליות בטלפון שבהן הנשיא ביידן קורא להם, בקולו, שלא לצאת לבחור. Pindrop Security Inc., - חברה שמתמחה ב"הונאות קול" ניתחה את ההודעה וגילתה את המקור בחברת ElevenLabs , סטארטאפ שמאפשר יצירת שכפול קול, והוא מיהר, בתורו, להשעות את חשבון המשתמש שיצר את קובץ האודיו הזה. בדף כללי הבטיחות של ElevenLabs כתוב ש"אסור לשבט קול למטרות נצלניות כמו הונאה, אפליה, ביטוי שנאה וכל עבירה אחרת על החוק". כמה נוח. ניסוח כזה משכנע בערך כמו להגיד לילד שנותנים לו קופסת צבעים - לא לקשקש על הקירות. וכדאי לשים לב: ElevenLabs קיבלה סבב השקעה אחרון של שמונים מיליון דולר בהובלת אנדריסן הורוויץ, לפי שווי חברה של 1.1 מיליארד דולר. לא רק בחברת OPEN AI הכסף מעוור את עיני המשקיעים, שבוחרים להתעלם בבוטות מן השימושים לרעה שניתן לעשות בטכנולוגיה שמציעות חברות בינה מלאכותית, אלא גם בקרנות ההון סיכון.
חברות הבינה המלאכותית מבטיחות לעשות מאמץ לסייע בטיפול בתופעות, למשל ביוזמה לקבע "סימני מים" כלומר לסמן תכנים שנוצרו על ידי בינה מלאכותית או להכניס שיטות זיהוי המסתמכות על ניתוח הטקסט. אבל אנחנו צפויים למשחקי חתול ועכבר. אם חברות בינה מלאכותית יאסרו על סוגי שימושים במוצרים שלהן, יעברו משתמשים זדוניים למודלים בקוד פתוח.
בדיוק לשם כך נדרשת חקיקה חוצת-מדינות, דוגמת זו שהאיחוד האירופי אימץ אך לאחרונה בחוק הבינה המלאכותית, שאוסר למשל על מניפולציית פסיכולוגיות שנעשות באמצעות בינה מלאכותית. החקיקה הזאת תטיל סוגים שונים של אחריות על מודלים רחבי יכולות של בינה מלאכותית, בייחוד על הגדולים שבהם כמו צ'אט ג'יפיטי וג'ימיני של גוגל. אחריות פחותה תוטל על מודלים קטנים יותר, כמו למשל קלוד של חברת אנתרופיק, שלו יכולות גבוהות מאוד בעברית. חכו שר'אזי יגלה זאת.
ללא ספק, חלק מן האחריות צריכה להיות גם על פלטפורמות המדיה החברתית. כבר היום אפשר בחלק מן הפלטפורמות להוסיף "הערת משתמשים" מתחת לתוכן, ולסמן אותו ככזה שנוצר על ידי מכונה. אבל, שימוש בבינה מלאכותית כדי להציף פלטפורמות מדיה חברתית בתכנים, אינו זוכה היום למענה מצד הפלטפורמות.
מעבר לאחריות על החברות המסחריות, קיימת אחריות על רשויות הביטחון והמודיעין שתפקידן להגן על העורף הדיגיטלי, בזמן מלחמה וגם בתקופות של מערכות בחירות. גורמים אלה אינם יכולים להילחם בחזית הבינה המלאכותית מבלי להבין את הטקטיקות, הטכניקות והנהלים של התועמלנים. לפחות חלק מן ההתארגנות שחשפנו היא גלויה ונעשית באמצעות קבוצות טלגרם. מחקר של הנעשה בקבוצות האלה יכול לתת הצצה לכלים שבהם נעשה שימוש ולדרכי הפעולה.
המים שאנחנו שוחים בהם הופכים למזוהמים יותר. מלחמת "חרבות ברזל" מעניקה לנו הזדמנויות למידה אדירות בנוגע לדרכים ולכלים שבהם נעשה שימוש כדי לזהם את השיח הציבורי. ומה שמתבהר הוא שנדרשת התערבות, בכל שרשרת (חוסר) האחריות: המודלים של הבינה המלאכותית, האפליקציות שנבנות על גבם, הרשתות החברתיות, וגם מי שמבצע את הקמפיינים – שכירי החרב, המתנדבים, הפוליטיקאים ומתמודדים בבחירות. אין די בהבטחות חלולות של שחקניות, ששורת הרווח מעניינת אותן, שהן יטפלו בעניין בעצמן. אין גם די בכך שרשויות המדינה סוברות שהדבר היחיד שנדרש כרגע לגבי בינה מלאכותית הוא "כללי אתיקה". העתיד כבר כאן, והוא דורש אסדרה, כדי שלא נמצא את עצמנו בחצר האחורית של העולם הדיגיטלי, חשופים למתקפות השפעה ולמלחמות על גורלנו.
גרסה מקוצרת של הסקירה פורסמה לראשונה ב-ynet