הדיון אתמול בועדת המדע והטכנולוגיה של הכנסת לגבי השלכות המידע הכוזב המופץ באמצעות AI הסתיים במסקנה שחברות ה-AI הן שצריכות להגן על האזרחים מפני פייק ניוז, אבל הסיכוי שזה יקרה בעתיד הקרוב, במיוחד לאור אתגרי השפה, שואף לאפס
השבוע התקיים דיון בוועדת המדע והטכנולוגיה באשר ל-AI ולהשלכות המידע הכוזב שמופץ באמצעותה בעיקר בימי מלחמה ובחירות. יו"רית הוועדה, ח"כ אורית פרקש-הכהן הודתה כי ישראל מדינה מסורבלת בירוקרטית וכי סביר שייקח זמן רב עד שנראה רגולציה ואכיפה שתגן על אזרחי המדינה מפני סכנות אלו. עד אז, ביקשה ממפתחי, יוצרי ומפיצי ה-AI שיגנו על אזרחי ישראל מפני המידע הכוזב. הבינה המלאכותית (AI) פרצה בסערה לחיינו. כלים דוגמת צ'אט GPT, מידג'רני ובארד מאפשרים לנו לייעל את העבודה היומיומית ולייצר תוכן בקלות מרשימה. אנחנו יכולים לבקש מ-AI ליצור לנו תמונה. כל מה שנדרש מאיתנו זה להגדיר לו "ילד עם בלון סגול עף בשמיים כחולים עם עננים לבנים ומחזיק בננה ירוקה", והופ! יש לנו תמונה שנראית אמיתית לגמרי, ללא כל אזכור לכך שבעצם, היא נוצרה באמצעות בינה מלאכותית. באותה קלות אפשר גם לבקש מהצ'אט ליצור לנו כתבה של 500 מילה שעוסקת בעלילות פו הדוב במזרח הרחוק, תוך דגש על פילוסופיית הטאו. מקישים ENTER והופ, יש לנו מאמר כתוב. קצת התאמות ולא ניתן להבחין כי נוצר באמצעות בינה מלאכותית.
הצד האפל של ה- AI
לצד היתרונות הגדולים והלא מבוטלים שמביאה איתה הטכנולוגיה, קיימות גם לא מעט סכנות, שהגדולה בהן היא הטשטוש וחוסר היכולת להבחין בין שקר לאמת, בין בדיה למציאות. תמונות שנוצרו במידג'רני 6 מפליאות ברמת הפירוט שלהן ובאמיתות שלהן. הקמטים וההצללה של הפנים כל כך מדויקים עד שבלתי אפשרי לזהות שמדובר בתמונה שנוצרה באמצעות קוד ולא על ידי צלם מקצועי אנושי. ועוד לא הזכרנו את יישומי הדיפ-פייק האחראים על יצירת סאונד ווידאו על סמך תמונה וקול, המאפשרים ליצור חיקוי מושלםשל כל אדם בעולם.
חרבות ברזל הסירו את הספק
בשנה האחרונה כבר אפשר היה להבין שהכלי הזה, בידיים לא נכונות, עשוי להביא לתוצאות הרות גורל, בין אם מדובר בשימוש זדוני פלילי, עסקי או פוליטי. יצירת המידע השיקרי שנחזה לאמיתי גורם לשיבוש ואף לשינוי תודעה. ואם היה ספק שאכן ניתן לשנות תודעה, הרי שהוא נעלם הודות למלחמת חרבות ברזל, שהביאה עימה כמויות עצומות של מידע כוזב, תחקירים פיקטיביים ובעיקר שינוי את תפיסת הציבור לגבי ישראל, ממותקפת למתקיפה.
ישראל רק מתחילה להבין את עומק הבעיה
במסמך שפורסם לאחרונה, המליצו משרד החדשנות, המדע והטכנולוגיה בשיתוף משרד המשפטים על הקמת גוף אופרטיבי שיהיה אחראי על שילוב תחום הבינה המלאכותית במערכת הביטחון, בדומה למערך הסייבר. גורמים בכירים נוספים ציינו שצריך צוות ייעודי לנושא הבינה המלאכותית, שיהיה לו מקום סביב שולחן הרמטכ"ל. שינוי התודעה, זיהוי הסכנות והצרכים החדשים ובעיקר העובדה שאזרחי ישראל נמצאים בסכנה, הובילו השבוע לדיון מקיף בוועדת המדע והטכנולוגיה בנושא בינה מלאכותית, בדגש על מידע כוזב ותודעה שקרית ("פייק ניוז").לתדהמתי, עמדת המדינה בדיון היום היתה שעל החברות למצוא כלים על מנת להגן על הציבור מפני שימוש לא ראוי בכלים של עצמן. כלומר, מאחר וקיים חשש של שימוש זדוני בכלים הקיימים, מתבקשות החברות עצמן לתקן חוקים ותקנות פנימיים כדי לזהות, למנוע ולהסיר שימושים כאלה, או לכל הפחות לסמן את התוצרים ככאלו שנוצרו באמצעות בינה מלאכותית, כך שהמתבונן ידע שיתכן ומדובר במידע שיקרי.
נותנים לחתול לשמור על השמנת
למעשה, המדינה מנסה ליצור מצב בו הארגונים משיתים על עצמם את הרגולציה והאכיפה. הדבר דומה למצב בו נשים חתול רעב מול קערת שמנת, ובעודו מסתכל בשמנת בתאווה, נבקש ממנו שיהיה מבוגר אחראי וימצא דרכים שימנעו ממנו להתפתות ולאכול ממנה. בזמן שמדינות העולם מתקינות תקנות ומקדמות חקיקה כדוגמת ה-AI ACT באירופה והצו הנשיאותי בארה"ב, ישראל מבקשת מענקיות הטכנולוגיה שישיתו על עצמן מגבלות. החברות עצמן כמובן טוענות ש"יהיה בסדר" והן "על זה".
האם ניתן בכלל לצפות מחברות מסחריות שיגנו על המשתמשים?
מיקרוסופט טוענת שבכלים שלה אי אפשר ליצור פייק ניוז, משום שהם שקופים ומוסיפים סיווג אוטומטי שהתוכן נוצר בבינה מלאכותית; גוגל מעדכנת שהיא בתהליך פיתוח של מנגנון סיווג כזה. ואם חשבתם שנציג מיקרוסופט דיבר על צ'אט GPT - אז זהו שלא. למרות נסיונותיה של ח"כ פרקש-הכהן לאשר שאכן מדובר בכלי של OpenAI, שמיקרוסופט היא בעלת שליטה עליו, במיקרוסופט התחמקו מלאשר שגם ChatGPT חולק את אותה רמת שקיפות שיש בכלים שהיא פיתחה. מערך הסייבר הלאומי, שאמור לתת מענה מקצועי לעניין זה, טען שהוא נמצא כבר היום בעומס יתר, והפיתרון שהוא מציע הוא שימוש בכלי AI על מנת להתמודד עם כמויות המידע הגדולות. קראתם נכון: על מנת להילחם בתוכן שנוצר באמצעים מלאכותיים יש להשתמש באותם האמצעים, כלומר הבינה המלאכותית אמורה להגן עלינו מפני עצמה.
אופטימיות חסרת תקנה
יפה היתה עושה המדינה לו היתה לוקחת סוף סוף את המושכות לידיה וקובעת הוראת שעה אשר תורה לחברות לכל הפחות לסמן את התוצרים ככאלה שנוצרו על ידי בינה מלאכותית ועלולים להכיל מידע שקרי, ותחייב אותן להטמיע מודלים בשפה העברית, כך שנוכל לעשות בחירה מושכלת באשר למידע והרעיונות שאנחנו בוחרים להאמין בהם.