top of page

The Day After AGI: Davos 2026’s Most Important Conversation About Our Technological “Adolescence”

  • תמונת הסופר/ת: Hillel Kobrovski
    Hillel Kobrovski
  • לפני 5 ימים
  • זמן קריאה 3 דקות

פאנל סופר מעניין שנערך במסגרת הפורום הכלכלי העולמי בדאבוס 2026, תחת הכותרת "The Day After AGI". המשתתפים הם דמיס הסאביס (מנכ"ל Google DeepMind), דריו אמודיי (מנכ"ל Anthropic - Claude) והמראיינת זאני מינטן‑בדואס (עורכת The Economist). כמה דברים סופר מעניין אשר נאמרו בראיון:


🧠 השאלה הגדולה מתי הם צופים שנגיע ליכולת של מערכת AGI ?


• אמודיי טוען שאנחנו כנראה 1–2 שנים ממודלים שעולים על בני אדם ברוב המשימות הקוגניטיביות, עם "לופ" של מודלים שעוזרים לפתח את הדור הבא של המודלים (self‑improvement loop), במיוחד דרך אוטומציה של קוד ומחקר AI.


• הסאביס הציג תחזית שמרנית יותר והוא מדבר על הסתברות של כ‑50% ל‑AGI עד סוף העשור, ומדגיש שיש עדיין יכולות חסרות, במיוחד יצירת שאלות, השערות ותיאוריות חדשות במדע, ולא רק פתרון בעיות קיימות.


• שניהם מסכימים שהקצב מואץ, אבל חלוקים בשאלה האם "סגירת הלופ" האוטומטי תתרחש מהר מאוד או תיתקע על מגבלות חומרה, ניסויים פיזיים ותחומים לא‑ברורים.


➿ האם נחוש האתה או האצה בפיתוח מערכות AI בשנים הקרובות ? הלופ של שיפור עצמי וגבולות ההאצה:


• אמודיי מתאר מודלים שכבר היום מייצרים את רוב הקוד, וצופה שבתוך חודשים עד שנה המודל יעשה כמעט את כל מחזור הפיתוח, כולל מחקר, מה שיכול ליצור אקספוננט בקצב השיפור של המודלים.


• הסאביס מסכים שבקוד ומתמטיקה, שבהם אפשר לאמת תוצאה בקלות, קל לדמיין לופ אוטומטי; אבל בתחומי מדעי הטבע, ביולוגיה ופיזיקה צריך ניסויים בעולם האמיתי, דבר שמאט משמעותית את השיפור האוטומטי.


• שניהם מדברים על כך שחומרה, ייצור שבבים וזמני אימון יהוו צוואר בקבוק פיזי שיכול להגביל את האקספוננט, גם אם האלגוריתמים ימשיכו להשתפר.


🧑‍💼 מה תהיה ההשפעה של AGI על עתיד עולם התעסוקה ?


• אמודיי טוען שחצי ממשרות "הצווארון הלבן" ברמת כניסה יכולות להיעלם בתוך 1–5 שנים, עם התחלה ברורה כבר עכשיו בתפקידי פיתוח תוכנה וג'וניורים בחברות טכנולוגיה, כולל בתוך Anthropic.


• הסאביס מדגיש שבטווח הקצר נראה תבנית "קלאסית": חלק מהמשרות ייפגעו, אבל יווצרו משרות חדשות, וכנראה נראה בעיקר האטה בגיוס ג'וניורים/מתמחים ולא גל פיטורים מיידי.


• שניהם מסכימים שיש "לאג" בין יכולת טכנולוגית לבין השפעתה המלאה על שוק העבודה, ושאם הקצב יישאר אקספוננציאלי, היכולת של החברה להסתגל עלולה להישחק בטווח של כמה שנים.


☣️ סיכונים, רגולציה ו"גיל ההתבגרות הטכנולוגי":


• אמודיי מדבר על "Machines of Loving Grace" (המאמר האופטימי) ועל מאמר חדש שעוסק דווקא בסיכונים, ומתייחס ל‑AGI כאל מבחן של "התבגרות טכנולוגית": האם נצליח לעבור את התקופה הזו בלי להשמיד את עצמנו.


• בין הסיכונים המרכזיים שאמודיי מציין הם: שימוש לרעה על‑ידי יחידים (למשל טרור ביולוגי), שימוש לרעה על‑ידי מדינות סמכותניות (במיוחד המפלגה הקומוניסטית של סין), אובדן שליטה על מערכות אוטונומיות חכמות בהרבה מבני אדם, והשלכות כלכליות קשות של דחיקת עבודה.


• הסאביס מדגיש גם סיכונים "רכים" יותר כמו משמעות וזהות אנושית בעידן שבו חלק גדול מהעבודה נעלם, וטוען שההתמודדות הפסיכו‑חברתית עם שינוי כזה עשויה להיות קשה לפחות כמו ההתמודדות הכלכלית. גיאופוליטיקה, תחרות וצורך בשיתוף פעולה:


- הסאביס מדבר על תחרות ארה"ב VS סין ועל הצורך בסטנדרטים מינימליים גלובליים לבטיחות, בדומה ל CERN עבור AI, תוך הבנה שהטכנולוגיה חוצה גבולות ולא ניתנת ל"הסגר" במדינה אחת.


- אמודיי טוען שכדי לאפשר האטה בטוחה בפיתוח, צריך לצמצם משמעותית את היכולת של יריבים גיאופוליטיים להשיג את אותה קיבולת חישוב, ולכן מתנגד נחרצות למכירת שבבים מתקדמים לסין.


- שניהם סבורים שהעיסוק הממשלתי והאקדמי עדיין רחוק מלהיות מספק ביחס לסדר הגודל של השינוי הצפוי בתוך 5–10 שנים.

מוזמנים לעקוב אחרי הערוץ שלי בווצאפ (לינק) לעוד תוכן מעניין שעוסק בהשלכות ההתנגשות הבלתי נמנעת בין הטכנולוגיה לחברה האנושית. בברכה , הילל קוברובסקי

 
 
 

תגובות


bottom of page