מאמר דעה

חוות דעת שנייה ל-ChatGPT

| מאת:

רגע לפני שאלגוריתמים יקטלגו את הבריאות שלנו בחשאי ויציעו תוכניות טיפול ובדיקות מאחורי גבנו — צריך להציב במהירות מנגנוני פיקוח ובקרה על שילוב בינה מלאכותית ברפואה.

Photo by Portra | iStockbyGettyImages

יום אחד אתם מגלים שבמסגרת בדיקות דם שגרתיות שביצעתם בקופת חולים, נלקחה מכם בדיקת דם נוספת לגילוי של דלקת כבד נגיפית מסוג C. כשאתם מנסים לברר מדוע, מסתבר ש"סומנתם" על ידי מערכת מבוססת אלגוריתם ככאלה שנמצאים בקבוצת סיכון לנשאות. לכן, המערכת יצרה הפניה אוטומטית לבדיקת הדם הזו, וזאת, מבלי ליידע אתכם או לבקש את הסכמתם ומבלי להסביר לכם דבר. גם לרופאה המטפלת שלכם לא ניתנה אפשרות להתערב בתהליך, לאשר או לבטל את ההפניה. דמיוני? לגמרי לא. מדובר במנגנון אשר יושם באחת מקופות החולים בישראל, ומשהדבר התגלה הוגשה תלונה ללשכת האתיקה של ההסתדרות הרפואית, שפרסמה בחודש שעבר נייר עמדה בעניין. הלשכה קבעה כי אין להשתמש בפרקטיקה הזאת משום שהיא נוגדת את עיקרון האוטונומיה שלפיו יש למטופלים זכות להיות שותפים בקבלת החלטות בדבר הטיפול הרפואי שיינתן להם. היא גם הדגישה שמערכות בינה מלאכותית במערכת הבריאות אמורות לתמוך בקבלת החלטות רפואיות אך לא להחליף שיקול דעת אנושי.

האמנם? בשבועות האחרונים צייץ בהתפעלות רופא מתמחה בחדר מיון כיצד הכניס גיליון רפואי של מטופל ל-chatGPT שהכין עבורו מכתב שחרור מפורט. ציוץ אחר, של רופא, תיאר כיצד הכניס מידע לגבי חולה מורכב ל-Med-Gemini, הפיתוח החדש מבית גוגל שמיועד לסייע לרופאים, והמערכת הציעה תוכנית עבור המטופל.

נדמה שבתקופה האחרונה קיימת תחרות איזה מקצוע עובר את הטלטלה הגדולה ביותר בגלל פריצתה של הבינה המלאכותית לחיינו. לא יהיה זה מוגזם להמר על מקצוע הרפואה. זאת, בגלל ההיבט המגוון והרב ממדי של מופעי הבינה המלאכותית בשרשרת הערך שלו. בינה מלאכותית מחוללת מהפיכה באבחון וטיפול במחלות, הודות ליכולתה לנתח מערכי נתונים מורכבים, מהיסטוריה רפואית ועד ניתוח בדיקות הדמיה ונתונים שמגיעים ממכשירים לבישים, להפיק מהם תובנות, לתכנן תוכניות טיפול – והכל בשפה אנושית. היא מטלטלת את המחקר הרפואי ואת עולם פיתוח התרופות, משום שהיא מאפשרת "רפואה מנבאת" המבוססת על תובנות סטטיסטיות מכוח ניתוח של ביג-דאטה, ואפילו מאפשרת ליצור חיקויים מושלמים של הגוף האנושי ולבצע באמצעותם את הסימולציות שהיום קוראים להן "ניסויים בבני אדם". היא גם משנה את עולם האדמיניסטרציה הרפואית והתקשורת עם מטופלים, החל מאיסוף ומיון מידע באמצעות תקשורת עם צ'אטבוטים ועד כתיבת סיכומים ורשומות רפואיות.

אכן, בכל שנה, אבחנות רפואיות מוטעות ותוכניות טיפול שגויות מובילות לעשרות אלפי מקרי מוות ונכות. על כך יש להוסיף את הבעיות המבניות של עומס יתר על צוותים רפואיים המשקיעים זמן רב בעבודה משרדית, את הפערים בין המרכז והפריפריה, את העלויות העצומות של פיתוח תרופות ועוד. פוטנציאל השימושים בבינה מלאכותית הוא לפיכך, ברור. אבל, אין זה אומר שכניסת הבינה המלאכותית לעולם הרפואה ולמערכת הבריאות צריכה להיות ללא הקפדה על עקרונות אתיים, בחינה לעומק של הכלים, איכותם, בטיחותם, השלכות השימוש בהם, ומנגנוני פיקוח ובקרה. השאלה היא כיצד הדברים האלה מתהווים בפועל.

פרופ' רוברט פרל מאוניברסיטת סטנפורד, כותב בספרו "ChatGPT, MD.", שהשאלה החשובה כעת איננה מי חושש מפני הבינה המלאכותית ויישומיה, משום שמספרי החוששים, הן בקרב רופאים הן בקרב מטופלים, יורדים. אלא, השאלה היא מי אחראי אם משהו משתבש. אבל כאן כדאי להגדיר מהו "שיבוש". שיבוש יכול כמובן להיות טעות או תקלה שיובילו ליצירת נזק, וניהול סיכונים טרם הכנסת מוצרים לשימוש הוא לפיכך הכרחי. אבל שיבוש יכול להיות גם ערעור החומות ההיררכיות בין מומחים לאלה שאינם מומחים; ובין רופאים לבין מכונות. חשבו למשל על השימוש בכלי בינה מלאכותית שיכולים לעשות מטופלים במסגרת אינטראקציה עם מטפלים. אין מדובר עוד בחיפושי גוגל "פרימיטיביים" לאיתור מידע רפואי ובריאותי, אלא ביכולת לבחון, לתקף ולבקר אמירות של רופאים אנושיים באמצעות מערכת שעברה בהצלחה רבה את מבחני הרישוי לרפואה.

יש מי שפותרים את הדילמה בדרך הקלה. הם טוענים שבינה מלאכותית תיושם ככלי "תומך החלטה" כדי לשפר ולא כדי להחליף החלטות קליניות, ומוסיפים ש"מי שמחליף רופאים איננה בינה מלאכותית אלא רופאים אחרים שיודעים להשתמש בבינה מלאכותית". החשיבה הזאת גורסת שבינה מלאכותית לעולם לא תחליף את הניסיון, הכישורים והמגע האנושי של צוותים רפואיים. במקום זאת, היא תאפשר להם להגדיל את היכולות והמומחיות שלהם עם תובנות וניתוח מהירים במיוחד, ותרחיב את משרעת הזמן שלהם בחברת המטופלים. זו עשויה להיות טעות.

ראשית, במקרים רבים השימוש בבינה יהיה ללא פיקוח ישיר של רופאים – למשל, פענוח נתוני מכשירים לבישים בבית והמלצה כיצד לפעול. שנית, ייתכן שלרופאים תהיה, ממש כמו לבעלי מקצועות אחרים, נטייה להסתמכות יתר על מכונות. ושלישית, ייתכן שעם הזמן מטופלים יעדיפו בהקשרים מסוימים את מעורבות המכונה על פני המעורבות האנושית, על כל המורכבות הקשורה בכך.

לכאורה, ההנחה היא שמגזר הבריאות, בשל עיסוקו בחיי אדם ובמידע רגיש ובגלל האסדרה המסורתית שלו, יהיה כפוף לתקנות ולכללי אתיקה מחמירים יותר מאשר במקומות אחרים. אבל אם לשפוט את המתרחש במערכת הבריאות בישראל, זה איננו המצב. בראש ובראשונה, התפיסה של מערכת הבריאות היא העדפה משמעותית של שיקולי יעילות מערכתית, חיסכון כספי וחדשנות, על פני זכויות המטופלים. מהפיכת הדאטה הבריאותי ובתוכה תחום ה"רפואה המנבאת" מבוססת הנתונים, התפתחה תוך התייחסות לא מספקת לזכויות המטופלים על הדאטה הרפואי שלהם, שעליו מתאמנות המכונות ועליו מתבצעים מחקרים; לזכות לפרטיות של מטופלים; ובעיקר לשאלות האתיות שנוגעות לרצונם של מטופלים שיופעלו עליהם מערכות ניבוי רפואי, ואפילו ביצוע פרוצדורות רפואיות ללא הסכמה מדעת. העובדה שהתרחש אירוע אתיקה כמו זה שתואר בתחילת הטור, מעידה על כך, וקשה לדעת כמה מקרים אחרים כאלה קיימים, משום שהדברים מתבצעים ללא שקיפות וללא שיתוף המטופלים. יכולות ההסקה, ההמלצה והניבוי של מערכות לומדות משתכללות כל העת, והשימוש בהן דורש מסגרות שאינן קיימות היום לגבי רמת היידוע של מטופלים על החלטות המשפיעות עליהם וכיבוד יכולת ההבנה שלהם וזכותם לאוטונומיה.

מעבר לכך, כניסתן של מערכות בינה מלאכותית מחייבת יצירת בסיס חזק בנושאי אבטחת מידע. למרבה הצער, בתי החולים בישראל אינם מוגדרים "תשתית מדינה קריטית" מסיבה של חוסר נכונות להשקיע במימון הנלווה לכך, וקיימת הסכמה מקיר לקיר – ממבקר המדינה ובכירי מערכת הבריאות לשעבר ועד למומחי סייבר – כי המצב בכי רע. ככל שתפקוד האדמיניסטרציה הרפואית יהיה תלוי יותר במערכות בינה מלאכותית, כך הנזק ממתקפות יהיה עמוק יותר. אבל בעת הזאת, זו אינה בהכרח ליבת העניין. בחודש מרץ פרסמה הרשות להגנת הפרטיות גילוי דעת והנחיה שבו היא מתריעה מפני שימוש שעושים גורמי רפואה במכשירים פרטיים וביישומים לא מאובטחים דיים כמו וואטסאפ, לצורך העברת מידע רפואי ובניגוד להוראות חוק הגנת הפרטיות וחוק זכויות החולה. אם בארזים האלה נפלה שלהבת, מה יש לצפות מהיישומים הגנרטיביים שבהם משתמשים היום צוותים רפואיים – ChatGPT, Gemeni וחבריהם, שלגביהם לא ברור מה מותר ומה אסור לעשות במסגרת העבודה הקלינית, אין בהם כל מחויבות להצפנה או לסודיות, שנגישים בצורה נוחה וחינמית ושאין הכרח אפילו לתעד במערכת המוסדית את העובדה שנעשה בהם שימוש, או שהסתמכו עליהם?

ואם האדנים כה רעועות, מתי יתקיים הדיון בבעיות של היעדר שקיפות אלגוריתמית, האופיינית למערכות בינה מלאכותית, ולחששות שתחת מעטה הסטטיסטיקה עלולים להתחבא כשלים הנובעים, בין השאר, מהטיות של מאגר הנתונים או שימוש לקוי בו? עולם הרפואה מכיר במציאות רפואית שהיא תוצר של הטיות, ודוגמה לכך היא כשלים באבחונים קרדיולוגים מותאמים לנשים, והמאמצים לתקנם. מי יוודא כי כאשר מערכת בינה מלאכותית ממליצה על טיפול רפואי או על מיקום בתור לקבלת טיפול, היא אינה מנציחה כשלי עבר או מפיקה המלצות מוטות, שיתגלו רק לאחר זמן? ועוד לא שאלנו דבר על החשש מטעויות ומ"הזיות".

מקצוע הרפואה עומד בחזית המקצועות העוברים מהפכה בשל הבינה המלאכותית. השינוי מתרחש כאן ועכשיו לנגד עינינו ומתפתח בקצב עצום. עניין המהירות והמוכנות הוא קריטי, מפני שעקרונות עבודה, סדרי עדיפויות, החלטות אתיות ותפקודיות – נקבעים כעת. "איפוק אתי" או רגולטורי בעת הזאת, יביא לכך שכוחות השוק או שחקנים בעלי עניין כמו ענקיות הטק יאסדרו את התחום, ולא בהכרח באורח המיטבי.

על אף זאת, קבועי הזמן שבהם פועלת מערכת הבריאות ומוסדות הבריאות הגדולים – איטיים באופן מדאיג. בינואר 2023 שלח משרד הבריאות קול קורא לקבלת משובים מהציבור בעניין "עקרונות מנחים לפיתוח טכנולוגיות מבוססות בינה מלאכותית". מדובר בתרגום של מסמך עקרונות אמריקני-בריטי-קנדי משנת 2021, הכולל כללים רחבים, מעורפלים, בלתי מחייבים ובלתי אכיפים. מאז, לא פרסם דבר. באמצע 2023, כלומר לפני שנה ויותר, פרסמו משרד המשפטים ומשרד המדע דו"ח בנוגע לאסדרת בינה מלאכותית ובו קבעו כי מוטב שכל סקטור במשק, ובכלל זה סקטור הבריאות, יאסדר את עצמו. אבל, גם קריאה זו לא הביאה לתוצאות. בעולם, לעומת זאת, איגודי רופאים מקצועיים פועלים מהר יותר. איגוד הרופאים האמריקני פרסם בנובמבר 2023 מסמך עקרונות למדיניות פיתוח ושימוש בכלי בינה מלאכותית ברפואה. איגוד הרופאים האוסטרלי יצא גם בקריאה לגבי הצורך ברגולציה ושקיפות בשימוש בכלי בינה מלאכותית במערכת הבריאות האוסטרלית, לאחר שהתגלה כי צוותים רפואיים בבתי חולים באוסטרליה עשו בפועל שימוש ב- ChatGPT לכתיבת סיכומים רפואיים של מטופלים.

היעדר מסגרת ברורה של עקרונות מקצועיים ואתיים, לצד השימוש שכבר קיים בשטח ללא אסדרה ושקיפות יוצרים מצב בלתי נסבל. חובתם של האיגודים המקצועיים, רשויות הבריאות וגם אנשי ונשות מקצוע רפואיים לממש אסטרטגיות התמודדות ולקבוע מסגרות פעולה. הזמן לפעול הוא כעת. יש צורך להתמודד עם סוגיות של ממשל נתונים, אתיקה, פרטיות, אבטחת מידע, תקשורת-בריאות, הטיות ושקיפות של מידע, ולא פחות חשוב- של יחסים בין אנשים ומכונות, חלוקה (ואפילו חילופי) תפקידים ביניהם ומשמעויותיהם - מהסתמכות יתר ועד אי הסכמה - וכיצד הם עשויים להשפיע על מערכת הבריאות, על העבודה הקלינית של הצוותים ועל המטופלים. בה בעת זוהי גם קריאה לציבור: אל תניחו שיותירו אתכם מאחור ואלגוריתמים יקטלגו אתכם בחשאי לתוך קבוצות סיכון ויחליטו מאחורי גבכם על תוכניות הטיפול והבדיקות. גם לכם כבעלי עניין צריך להיות מקום סביב שולחן קבלת ההחלטות בסוגיות שיעצבו את חיינו מכאן ואילך.


ד"ר תהילה שוורץ אלטשולר היא מומחית למשפט וטכנולוגיה, עמיתה בכירה במכון הישראלי לדמוקרטיה. ד"ר אימי לב מומחית בתחום תקשורת-בריאות, מלמדת בחוג לקידום בריאות בפקולטה לרפואה באוניברסיטת תל-אביב ובמכללה האקדמית גורדון. המאמר פורסם לראשונה במגזין TheMarker.