top of page

Acerca de

AI PIC.jpg

ביל גייטס על בינה מלאכותית - הסכנות וההזדמנויות

ביל גייטס, מייסד מייקרוסופט המיתולוגי ואחת מדמויות המפתח של העולם הטכנולוגי שאנו חיים בו, הצהיר בפוסט שהעלה לבלוג שלו גייט נוטס (Gates Notes) שהוא רואה בצ'אט-בוט המצליח CHAT GPT של חברת OpenAI ובבינה מלאכותית בכלל, פריצת דרך טכנולוגית מהפכנית ומשמעותית לא פחות מאשר הופעת הטלפונים הניידים והאינטרנט.

המיליארדר והפילנטרופ בן ה 67 רואה ב AI (בינה מלאכותית) את ההתפתחות החשבוה ביותר בטכנולוגיה מאז ממשק המשתמש הגרפי (1980) שאיפשרה למשתמשים אינטראקציה פשוט, קלה ונוחה עם מחשבים על ידי שימוש בסמלים, תפריטים וחלונות. בפוסט הוא הצהיר שהבינה המלאכותית היא אחת משתי טכנולוגיות מהפכניות שנתקל בהם במהלך חייו "הפיתוח של AI הוא בסיסי כמו יצירת המייקרוצ'יפ, המחשב, האינטרנט והטלפון הנייד", כתב.

גייטס סובר שבינה מלאכותית תשנה את הדרך שבה אנשים בעתיד יעבדו, ילמדו, יטיילו, יקבלו טיפול רפואי ויתקשרו זה עם זה. לדעתו, השימוש בכלים של AI יאלצו תעשיות שלמות להתכוונן מחדש ויבדלו עסקים מהמתחרים שלהם – הכל על פי מידת השימוש שלהם בטכנולוגיה החדשנית. הוא טוען שבינה מלאכותית מחזיקה בפוטנציאל עצום לצמצום אי השוויון בחברה אבל יחד עם זאת מדגיש את הצורך הדחוף ביותר – "לאזן את הסיכונים הגלומים בה לאנושות".

אז בואו נדבר קצת על ה"סיכונים" הגלומים בה לאנושות..

 

כולנו הרי יודעים שלביל גייטס ושכמותו יש את הכוח, היכולת והממון לשנות את חוקי המשחק. בכוחו להשפיע על ממשלות, לשנות את הטקטיקה העסקית של חברות בינלאומיות, ולהשפיע על הליכים מדיניים כמו גם על קבלת החלטות מצד בעלי תפקידים קריטים בעמדות מפתח בממשלות ובתעשיות שונות. לכן, כשביל גייטס אומר משהו – הוא לא מדבר אל תוך חלל ריק – ועלינו להקשיב. "הוא כנראה יתחיל להטמיע את הטכנולוגיה הזו בקרוב מאוד. זו רק ההתחלה." אומר מיכאל יאדן (Michael Yeadon) שמאוד לא אוהב את הכיוון שאליו מוליך אותנו גייטס ומוסיף, "אי אפשר להתעלם מביל גייטס כשהוא אומר את דעתו לגבי העתיד.. כשביל גייטס וה-UN מדברים, אנחנו צריכים להבין שהם בדרך ליישם מדיניות בינלאומית. התפתחות הבינה המלאכותית היא כנראה המערכה הראשונה במחזה רב שלבים שייקח 10 שנים, שיהרוס את הדמוקרטיה הליברלית לחלוטין."

לשמוע את הדברים האלה מעורר מחשבה ואולי קצת מרתיע מצד אחד אבל מצד שני, זה רחוק מלהפתיע אותנו.

הרי אנחנו כבר יודעים שישנם הרבה מאוד סרטוני דיפייק שמראים את פוטין או את ביידן אומרים דברים שלא היו ולא נבראו, אבל זה לא עוצר את חברת OPEN AI, המגובה כעת בהשקעה של 10 מיליארד דולר נוספים מחברת מייקרוסופט, שהוציאה בשבוע שעבר את הגרסה העדכנית ביותר שלה למערכת GPT. המודל העדכני ביותר של המערכת יכול ליצור טקסטים, לקדד, ליצור תמונות, לחשוב בצורה ביקורתית, לעבור מבחנים וכיוצא באלה. יותר מזה, המודל הזה מאפשר למשתמש "לאמן" את המערכת, כך שתלמד על נושאים מתקדמים ולא רק תדקלם עובדות פשוטות.

גייטס, כמי שמאמין בדברים שאותם הוא אומר, אכן מבלה את רוב זמנו במעורבות ב"קרן ביל ומלינדה גייטס". שם, הוא שואב השראה רבה מהבינה המלאכותית לגבי הפוטנציאל הגלום בה לצמצום חוסר השוויון החברתי. כחלק מעיסוקיו הנלאים כפילנטרופיסט הוא טוען שלבינה המלאכותית יש פוטנציאל עצום להציע שירותי בריאות ושירותי חינוך מתפתחים לאוכלוסיות מעוטות יכולת ושהיא אפילו יכולה לשנות את מצב האקלים בעולם. אבל קשה עד כדי אי אפשר שלא לשאול את עצמינו באותה נשימה את השאלה – איך אוכלוסיות מעוטות יכולת שחסרות גישה למחשבים או לכספים יוכלו בכלל להנות או להשתמש בטכנולוגיה הזו?

 

כך או אחרת הסירו דאגה מלבכם, תסמכו על קרן ביל ומלינדה גייטס.. שמבטיחה לספק בחודשים הקרובים פרטים נוספים על האופן שבו היא מקווה לעשות שימוש בטכנולוגית הבינה המלאכותית.

האמת היא כנראה הרבה פחות אוטופית ממה שסברנו, או הרבה יותר איומה ממה שאנו מתארים לעצמינו. הרי לא יפתיע אותנו אם בינה מלאכותית בדיוק כמו שאר ההתפתחויות הטכנולוגיות שקדמו לה, תסייע בעיקר (אם לא רק) לבעלי ממון ויכולת, חברות ועסקים עשירים ומדינות עשירות, פשוט להתעשר יותר. עולם כמנהגו נוהג.

גייטס טוען למשל ש "בינה מלאכותית יכולה לעזור לנו להנדס גנטית את המזון שלנו, הטכנולוגיה יכולה לסייע בפיתוח זרעים מוצלחים יותר בהתבסס על התנאים הקיימים בשטח, ולייעץ לחקלאים על הזרעים הטובים ביותר לשתול על סמך האדמה ומזג האוויר באזורים שבהם הם נמצאים. בינה מלאכותית גם יכולה לסייע בפיתוח תרופות וחיסונים לבעלי חיים.


העניין הוא, שאנחנו יודעים שאחד מתחומי העניין העסקיים העיקריים של ביל גייטס בשנים האחרונות הוא אוכל מהונדס גנטית וחיסונים (שהוא בעל הפטנטים עליהם...) כך שגם כאן, תום הלב שלו מוטל בספק.

נמשיך.

לדבריו של גייטס בינה מלאכותית "יכולה לפעול כסוכן או כעוזר האישי הצמוד שלנו", אלא שאז, נצטרך לסמוך על תכנת מחשב שלא תשתף את המידע שלנו ועל זה הוא אכן מוסיף ש "יש צורך לפתור כמה בעיות בבינה המלאכותית: לדוגמה, האם חברת ביטוח יכולה לשאול את הסוכן שלך דברים עליך ללא רשותך?" זאת אומרת, מה קורה אם הכלים המתקדמים של מערכות בינה מלאכותית ימצאו את עצמם בידיים הלא נכונות כמו למשל אצל האקר, בחברה בעלת אינטרסים או בגוף ממשלתי שלא בהכרח מעוניינים בטובתו האישית של אדם כלשהו (פגסוס מישהו?)

ומה לגבי שיתוף של המידע האישי שלנו ברשת כמו למשל המצב הבריאותי שלנו, הסיסמאות שלנו, השיחות האישיות שאנחנו מנהלים עם הקולגות, החברים או עם בני משפחה שלנו?

בתגובה לזה הוא כותב "ניתן לומר לו להיות פסיבי או לעודד אותו לדבר אם יש לו תובנה כלשהי."


כלומר, ביל גייטס מצפה שבשלב כלשהו תוכנות בינה מלאכותית יצטרכו ללמוד לעשות שימוש בתכונות אנושיות
כמו "רגישות" יסגלו לעצמם את היכולת להבדיל בין "רצון להכרח" או להוציא לפועל וליישם מונחים כמו "פרטיות".


במילים אחרות, כלים של בינה מלאכותית יצטרכו להחליט בעצמם מתי ראוי לשתף את כל המידע שיש ברשותם ומתי זה לא ראוי. האמת היא שזו קצת בדיחה לשמוע אותו אומר את זה על מערכת ממוחשבת. יש בנינו ומסביבנו לא מעט בני אדם שאינם מסוגלים להגיע אל התובנות האלה בעצמם – אז אנחנו מצפים ממכונה שתעשה את זה?!

בסדר. נגיד.

למעשה, בשולי הדברים או בין השורות (תלוי איך מסתכלים על זה), ביל גייטס רואה ב AI סיכון לטווח ארוך. מה יקרה כשבינה מלאכותית תתחיל לפעול בניגוד לבני אדם? מה יקרה כשבינה מלאכותית, כתוצאה מהיכולת שלה ללמוד להעמיק ולחקור בנושאים בעלי מחלוקת ולחשוב בצורה ביקורתית, תגיע למסקנה – הסבירה בהחלט אגב – שבני האדם הם האיום הגדול ביותר של כדור הארץ? האם האינטרסים של בינה מלאכותית ישארו בגדר האינטרסים שלנו? או לדבריו, "האם מכונה יכולה להחליט שבני אדם מהווים איום, להסיק שהאינטרסים שלה שונים משלנו, או פשוט להפסיק לדאוג לנו?" הוא שואל. "ייתכן, אבל הבעיה הזו אינה דחופה יותר היום מאשר לפני פיתוחי הבינה המלאכותית של החודשים האחרונים." הווא גם עונה לעצמו.

אפשר לראות אם כך שלמרות שטכנולוגית הבינה המלאכותית היא אחת ההמצאות החשובות והמשמעותיות של השנים האחרונות אפילו ביל גייטס מודה שהיא "מעלה שאלות קשות", ומוסיף, "העולם צריך לוודא שכולם - ולא רק אנשים אמידים - ייהנו מבינה מלאכותית" כשהוא אפילו מסב את תשומת הלב לאיום הברור של "בני אדם חמושים בבינה מלאכותית."

על כל זה ועוד הוא מסכם בפשטות – "כמו רוב ההמצאות, ניתן להשתמש בבינה מלאכותית למטרות טובות או למזיקות. ממשלות צריכות לעבוד עם המגזר הפרטי על דרכים להגביל את הסיכונים." 

 

כן. בהחלט ניתן לסמוך על הממשלות ועל המגזר העסקי והפרטי שישתמשו בטכנולוגיה הזו באופן אחראי..

עכשיו אני רגועה יותר.

bottom of page