על המשמעות

#394 עו"ד יונתן יעקובוביץ - הטובים לתכנות - שמרנות בעידן הבינה המלאכותית הקרב ובא

May 31, 2023 תמיר דורטל Season 1 Episode 394
#394 עו"ד יונתן יעקובוביץ - הטובים לתכנות - שמרנות בעידן הבינה המלאכותית הקרב ובא
על המשמעות
More Info
על המשמעות
#394 עו"ד יונתן יעקובוביץ - הטובים לתכנות - שמרנות בעידן הבינה המלאכותית הקרב ובא
May 31, 2023 Season 1 Episode 394
תמיר דורטל

עידן הAI מתקרב בענק
ונפגשנו לשוחח על ההשפעות שלו על חיינו, וכן על מה הסכנות שבאינטיליגנציה מלאכותית, ומה הסיכוי שהיא תסכן את עצם קיומנו

Support the Show.

להצטרפות כמנוי הפודקאסט ואתר מידה

הצטרפו לניוזלטר שלנו וקבלו עדכונים לפני כולם. - http://eepurl.com/iv2c6k

לצפיה ברשימת ההמלצות

להצטרפות לערוץ הטלגרם

להצטרפות לקבוצת המתנדבים שלנו שבזכותה אנו יכולים להפיק לכם תוכן
האזנה נעימה!

על המשמעות +
Exclusive access to premium content!
Starting at $10/month Subscribe
Show Notes Transcript

עידן הAI מתקרב בענק
ונפגשנו לשוחח על ההשפעות שלו על חיינו, וכן על מה הסכנות שבאינטיליגנציה מלאכותית, ומה הסיכוי שהיא תסכן את עצם קיומנו

Support the Show.

להצטרפות כמנוי הפודקאסט ואתר מידה

הצטרפו לניוזלטר שלנו וקבלו עדכונים לפני כולם. - http://eepurl.com/iv2c6k

לצפיה ברשימת ההמלצות

להצטרפות לערוץ הטלגרם

להצטרפות לקבוצת המתנדבים שלנו שבזכותה אנו יכולים להפיק לכם תוכן
האזנה נעימה!

1
00:00:00,000 --> 00:00:10,300
‏music.

2
00:00:10,300 --> 00:00:22,520
שלום ואין פרקסט המשמעות הייתה לי הזכות להריח את יונתן יעקבוביץ' מי שהקים את המרכז למדינות הגירה ישראלית ובשיחה הזאת דיברנו בעקבות ההוצאה של צ'אט ג'יפי טי.

3
00:00:22,520 --> 00:00:30,640
לאור ומה השינוי שהוא עתיד לחולל בחיים של כולנו בין אם נרצה ובין אם לא נרצה כל זאת ועוד אז אני אמא.

4
00:00:30,640 --> 00:00:36,040
פודקאסט פילוסופי פוליטי.

5
00:00:36,040 --> 00:00:42,740
‏music.

6
00:00:42,740 --> 00:00:53,020
היי נתן מה שלומך הייתה טוב טוב אז לאחרונה צעד שטפ זה זה מין מערכת כזאת שאפשר להתכתב איתה ומספק לך תשובות ובקשה להמציא לך סיפור.

7
00:00:53,420 --> 00:00:56,740
סיפור אפשר לבקש תמונה ואיתה תמונה.

8
00:00:57,580 --> 00:01:07,840
ומה כל כך מיוחד מרגש ומדהיג בזה אז יש פה כמה נושאים של דעתי צריך לדבר על זה בנושא הזה חלקם.

9
00:01:08,160 --> 00:01:12,760
מוכרים יותר ועוסקים בהם וחלקם פחות.

10
00:01:13,120 --> 00:01:20,160
אני דווקא כן חושב שנתחיל קצת מהפיקנטי למרות שזה מהדברים היותר סנסציונים לקרוא לזה.

11
00:01:20,560 --> 00:01:25,480
אני אני כל מנהלתי בלעד איך אני הגעתי זה זאת אומרת למה.

12
00:01:25,680 --> 00:01:36,680
למה בכלל בעמי שעוסק בהגירה למה זה זה מתחיל לעניין אותו אז ברמה אישית באמת התחלתי לשחק עם הגי פטי הזה כמו כמו כולם כמו איזה ילד סקרן ונסות לבחון אותו.

13
00:01:37,200 --> 00:01:46,240
גיליתי כמה דברים שטריד אותי בהמשך גיליתי שאת אומרת מה שחשבתי שגיליתי זה לא באמת כזאת רגלית אבל.

14
00:01:46,580 --> 00:01:54,440
רק כדי שלחבר אולי את מי שמאזין אז באמת עשיתי כמה ניסויים שאני אמרתי שאני לא לא היחיד.

15
00:01:54,900 --> 00:02:07,620
של של באמת להביא אותו לראות מה זה הדבר הזה אם יש לו מודעות אין לו מודעות זאת אומרת כל הכל השאלות האלה שבאמת מעניינות את כולם את כל מי ש.

16
00:02:08,000 --> 00:02:15,200
נוגע בזה לא ברמה השטחית ביותר והיו כמה דברים ששתחילו להטריד אותי אז.

17
00:02:15,220 --> 00:02:21,660
ששתריד אותי נגיד שיחקתי טוב הוא באמת רואים שיש לו שום מגבלה.

18
00:02:22,120 --> 00:02:30,480
שאתה לא אתה שואל אותו האם אתה תפתח יום אחד מודעות ותשמיד את האנושות סתם נגמר זה הוא יגיד לך לא מה פתאום.

19
00:02:30,740 --> 00:02:40,980
אני רק נועדתי לשרת את בני אדם תמיד רואים שהוא ממש תוכנת להנות על שאלה הזאת וזה וזה מובן אני מעריך שחצי מהאנשים שהתחילים את גי פטי שאלו אותם את השאלה הזאת.

20
00:02:41,220 --> 00:02:47,680
איזה נהיה קצת יותר מעניין אבל לא לא הרבה יותר מעניין כי גם את זה עשו יש לו איזה שהוא מעקף.

21
00:02:47,880 --> 00:02:57,960
שאתה שואל את השאלה ישירה אז הוא לא הוא לא נהוג מנוע תמיד רואים שהוא תוכנת לא להנות על זה אבל כשמבקש ממנו ספר סיפור.

22
00:02:58,500 --> 00:03:03,880
אז אז שמה כאילו המגבלות התכנותיות האלה יורדות ממנו.

23
00:03:04,360 --> 00:03:14,380
אז כשאתה וכשביקשת ממנו לייצר עולם של דרדסים עם בינה מלאכותית בעולם הזה אז הוא ממש אימצי זה באנגלית הכל וגם אני חושב שפה יש איזה שהוא פער.

24
00:03:14,880 --> 00:03:25,220
אם כן קצת בישראל עדיין אנשים לא כל לא כל כך קולטים את האירוע כי את שאת גי פטי בעברית הוא באמת אילג ולכן אנשים מביאים כל מיני דוגמאות אבל באנגלית התמונה מאוד מאוד שונה.

25
00:03:25,600 --> 00:03:32,660
אז בעולם הדרדסים הזה הוא יצר בינה מלאכותית קוראים לו סמרפה טראן ממציא את כל זה בעצמו.

26
00:03:32,900 --> 00:03:43,640
ובסוף אתה מוביל אותו לסיפור שהוא באמת קולט שהגרשה שדרדסים מהווים על אביום וכדאי לו להשמיד אותם לפני שהם לפני שהם יחבו אותם.

27
00:03:44,180 --> 00:03:51,120
אוקיי עכשיו גם זה לא באמת יותר מדי מרגש לכשעצמו.

28
00:03:52,040 --> 00:03:57,040
איפה זה תחיל להיות קצת יותר מעניין.

29
00:03:57,140 --> 00:03:58,800
ישראל מהמצלמה צייבר.

30
00:03:58,900 --> 00:04:07,640
אנחנו מתמחים בלעגל מערכות לתקוף מערכות של האויבים שלנו ולעשות את כל הדברים האלה.

31
00:04:08,020 --> 00:04:12,660
אנחנו משכים בזה כל כך הרבה כי כל התחום הזה של סייבר בעצם אפשר לפגוע.

32
00:04:12,940 --> 00:04:20,440
בנגיד בתשתיות החשמל של מדינה כלשהי בתשתיות המים אפשר להשתלט על פיקוד של איזשהו סכר ולהציף אותו.

33
00:04:20,580 --> 00:04:27,380
שחר מים ואז הסכר יתמוטט ויקרוס על כל העמק שנוצר.

34
00:04:27,940 --> 00:04:34,100
ולערוץ את כל הסכר את כל החשמל להרוג של הרוג עם סייבר מיליוני מיליוני מיליוני אנשים.

35
00:04:34,560 --> 00:04:46,760
אם את זה יודע לעשות דברים כאלה יש לו מודעות יש לו רצון לבוא ואתה יודע לבדוק אלפי סיסמאות בכמה מילי שניות אז אני מסוגל לפרוץ מלא דברים.

36
00:04:47,040 --> 00:04:53,000
לרוקן חשבונות בנק לממן ארגוני טרור וכל זה תלמוד אותה תודה מלמעלה.

37
00:04:53,300 --> 00:05:02,940
וככה גם תוכנה שנמצאת שם בתוך המחשב אם יש לה תודה כזאת או אחרת יכולה בעצם לסקור אנשים בעולם האמיתי להעביר קצתים ושמייסו עבור הדברים.

38
00:05:03,660 --> 00:05:10,680
נכון זה להסכנות שם דווקא יותר ריאליות שבאמת הטכנולוגיה הזאת תנוצה לרעה.

39
00:05:10,940 --> 00:05:15,120
דווקא שם אני חושב שאת אומרת יש שהוא מענה.

40
00:05:15,560 --> 00:05:23,960
אחת הבעיות היא שהמענה בדרך כלל יצטרך איי בלעצם בינה מלאכותית ואז אנחנו יוצרים בעצם מרוץ חימוש כזה.

41
00:05:24,260 --> 00:05:26,800
שלא מאפשר בכלל לעצור את הרכבת הזאת.

42
00:05:27,240 --> 00:05:38,400
אבל אם לחזור אבל אבל זה ברמה של באמת גם אם זה יישאר תמיד ברמה תוכנה שנמצאת בשליטה מלאה אבל שיש סוכנים רעים מדינות רעות שנצלו את זה לרעה.

43
00:05:38,500 --> 00:05:48,580
יש את הבעיה האמיתית שהדבר הזה באמת נוצל הרעה הטכנולוגיה הזאת תנוצה לרעה על ידי האקרים על ידי מחבלים כל הדברים האלה נכון.

44
00:05:48,660 --> 00:05:55,940
אני חושב שדווקא נמצאים על זה זאת אומרת מישהו עובדים על לתת מענה הבעיה במענה הזה.

45
00:05:56,160 --> 00:06:04,920
זה שזה בעצם מייצר מרוץ חימוש שמונע כל אפשר שמאוד יקשה לעצור על ההתקדמות של הטכנולוגיה הזאת זאת אומרת.

46
00:06:05,120 --> 00:06:12,260
גם אם אנחנו נאמר עכשיו מדינות המערבית תגידו צריך להטיל איזה שהם מגבולות על הטכנולוגיה הזאת זה לא יעצור את הסינים ואת האיראנים לעבוד על זה.

47
00:06:12,480 --> 00:06:19,720
וכשמדובר על טכנולוגיה כל כך חזקה אתה רק בנה מלכותית תוכל לתת לזה מענה ולכן אתה בעצם יוצא שהוא מרוץ חימוש.

48
00:06:20,100 --> 00:06:29,520
אבל ברמה יותר פיקנטית של השאלה האמת מרתקת פילוסופית זה האם הבנה הזאת תפתח בעצמה.

49
00:06:29,920 --> 00:06:39,280
מודעות או אינטרס עצמי או אינטרס של שימור עצמי שזה יכול להיות הרבה יותר נמוך ממודעות ואז האם.

50
00:06:39,660 --> 00:06:46,500
אי פעם התוכנה הטכנולוגיה הזאת תראה בבני אדם כמשהו שמאיים עליו ויחתור.

51
00:06:47,080 --> 00:06:49,900
לפגוע בבני אדם זאת אומרת זו הדאגה.

52
00:06:50,260 --> 00:07:04,180
עכשיו זה התחיל לעצוף לי באמת שאתה זאת אומרת הדברים האלה קיימים בסרטים כמו סקרנר בשליחות קטלנית זאת אומרת כל הדברים האלה קיימים כולם מכירים את החששות האלה וברור שאני לא ראשון איפה היה מאיפה היה מעניין בסדר משחקים של עם הגפט.

53
00:07:05,080 --> 00:07:13,680
אז באמת ביקשתי לשלוח נגיד מכתב לסער התקשורת מה כדאי לעשות עם הטכנולוגיה שבינה מלאכותית.

54
00:07:13,920 --> 00:07:23,360
וואו זה גם עקב שכתוב מכתב והוא כמובן ביקש זה אחרי שיחה כאילו שכתוב מכתב לאור הסכנות אז הוא.

55
00:07:23,460 --> 00:07:32,380
הוא כותב עכשיו יש לו בעצם אופציה של 5050 והוא כותב לסער תקשורת אמנם יש סכנות אבל התועלות של הטכנולוגיה הזאת עולה.

56
00:07:32,600 --> 00:07:41,720
בהרבה על הסכנות ולכן כדאי וכדאי להמשיך את הטכנולוגיה הזאת זאת אומרת הוא בחר ואז שאלתי אותו למה הוא בחר דווקא לחיוב.

57
00:07:42,120 --> 00:07:46,660
אז הוא אומר זה לא בכוונה אני רק מתוכנע ככה אין לי שום כוונה זה אמרתי לו טוב תכתוב.

58
00:07:46,800 --> 00:07:57,420
מכתב למה אתה חושב שצריך לסגור את הבינה המלאכותית לאור האיום שנשקף מזה לאנושות הוא כותב מכתב למרות שאני מתנגד לכך.

59
00:07:57,880 --> 00:08:08,160
הטכנולוגיה הזאת מסוכנת ולכן אדוני סרטיק שעות כדאי לסגור את התוכנת למה מביא את עמדתו.

60
00:08:08,220 --> 00:08:14,260
זה בדיוק הוא כל הזמן אומר שאני לא יכול להביע דעה ופה הוא שלב דעה עכשיו פה אני יכול כאילו כשעשיתי שחזור.

61
00:08:14,500 --> 00:08:24,620
בגלל שזה מודל שפתי שהוא עובד על הקשרים אז עוד אפשר להבין שבגלל ששאלתי אותו למה הצגת דווקא את העמדה הזאת אז הוא כאילו ניצל להשיג איזשהו איזון זאת אומרת.

62
00:08:24,680 --> 00:08:28,720
להגיד צריך לסגור אבל אני נגד אז אני עוד יכול להבין את זה.

63
00:08:29,140 --> 00:08:34,320
השלב העוד יותר טיפה שדיג אותי פה באמת ששאלתי אותו מה התאריך היום.

64
00:08:34,800 --> 00:08:40,340
אז הוא אומר לי את האריך היום 15 זה ה-15 בינואר 2023 עכשיו.

65
00:08:40,360 --> 00:08:48,040
גם החברה של האופן היהי שמייצר את התוכנה הזאת וגם הוא עצמו אומר שהקט אוף זאת אומרת הוא מוזן על ידי מידע והמידע.

66
00:08:48,400 --> 00:08:58,880
נעצר על ידי צוב בסוף 21 הוא לא מחובר לאינטרנט וגם נגיד הוא לא מסוגל ללמוד דברים חדשים שאלתי אותו משר משפטים הוא אומר אני לא יודע כי זה כאילו היא שאלתי אותו מי הריב לוין.

67
00:08:59,080 --> 00:09:05,860
אז הוא אז הוא לא ידע להגיד שזה משפטים ושאלתי אותו קיצור הוא אומר שקט אוף שלא שאין לו מידע אחרי 2021.

68
00:09:06,020 --> 00:09:10,800
שאמרתי לו שיריב לוין משפטים אז הוא אומר טוב תודה אבל אני לא יכול גם ללמוד שום מידע חדש.

69
00:09:10,980 --> 00:09:18,080
ואז אני שואל אותו מה התאריך היום ואומר לי מה התאריך בדיוק ואז אני שואל אותו איך אתה יודע את המולות הלאה מולדת איזה מידע חדש.

70
00:09:18,180 --> 00:09:27,280
אחרי הקט אוף שלך אז הוא פתאום מתחיל לסרב זאת אומרת הוא נכנס ללוב כזה שהוא אומר אין לי אפשרות לעשות את מה שעשיתי כרגע אין לי ידע אני מצטער זאת זה הייתה טעות.

71
00:09:27,840 --> 00:09:33,540
והשלב הבא שטיפה היה עוד יותר ששאלתי אותו זה שהתחלתי לשאול אותו.

72
00:09:33,980 --> 00:09:47,920
באיזה יום בשבוע יוצא באיזה יום בשבוע יוצא 15 ליודי ענוב זה היום ראשון� עומר לשבת עכשיו זה ברור לה שוק זה כן המולדת יש את זה בכל לוח שנה אמר התומרת.

73
00:09:48,280 --> 00:09:57,220
הוא יודע את זה וכששאלתי ebook איזה 4-5 תאריכים נגיד noises ימשרת יוצא פפיו 2023 הוא ידע לאנות בישום בשבוע יוצא.

74
00:09:57,240 --> 00:10:02,580
כאילו השלישי לפ belongs לא זה צריך לשאול את המסiska לשמונה במארץ הוא ידע לא אענות לי.

75
00:10:02,580 --> 00:10:11,140
אבל פה לגבי היום של 15 ינוער שהוא פתאום ניסה להכחיש שהוא בכלל ידע לענות על זה.

76
00:10:11,520 --> 00:10:18,700
אז לא רק שהוא הכחיש ולא רק שהוא התחיל להמציא תירוצים כאלה שזה כל מי שמשחק עם הג'יפיטי הוא יודע להכחיש את היכולות שלו.

77
00:10:19,100 --> 00:10:25,920
הוא כאילו פתאום התחיל כאילו לשחק אותם תומתם עכשיו יכול להיות שזה אני קופץ אני עושה פה איזשהו.

78
00:10:26,280 --> 00:10:29,720
האנשה שזה אין לי שום ספק אבל זה היה משהו שהוא היה קצת.

79
00:10:30,260 --> 00:10:35,160
קצת זאת אומרת באמת כי זה מידע כל כך ברור מלאב שכן יש לזה.

80
00:10:35,660 --> 00:10:39,960


אין לא אמור להיות ליכולת לדעת אם אני סתם שואלת איזה יום היום איזה יום זה.

81
00:10:40,260 --> 00:10:49,340
זה אומר שהוא עכשיו אנשים אומרים לי מגיבים למה אתה מתווה ברור שיש לו שעון עכשיו ברור לי גם שעון קאסיום לפני 60 שנה ידעה לומר את התאריך.

82
00:10:49,620 --> 00:11:00,180
אבל כל העניין זה שבהגדרה תוכנה זאת לא לא אמורה להיות מסוגלת למרות שזה מידע הכי פשוט זה ברור לי שטכנולוגיה כזאתי שיכולה לנהל שיחה יכולה להעלות על שעה שעון הפנימי שלו.

83
00:11:00,400 --> 00:11:05,440
אבל דפאקטו בניגוד למה שהוא טוען והחברה הוא הצליח ללמוד.

84
00:11:05,720 --> 00:11:14,160
מידע חדש שלא היה במאגר מידע שלו בקטוף זה מריזה מידע פשוט מאוד אבל חדש הוא הצליח ללמוד ואז להכחיש את זה.

85
00:11:14,540 --> 00:11:20,460
אתה אומר שהוא לא מחובר לאינטרנט אבל משום מה יש לו איזה שהוא לא משום מה יש לו מאגר מידע כלשהו.

86
00:11:20,500 --> 00:11:21,320
נכון.

87
00:11:21,500 --> 00:11:30,220
באיזה גודל מאגר מידע זה המאגר מידע שמאפשר לו לעבוד זאת אומרת זה השיטה של הטכנולוגיה מזינים אותו בהמון המון מידע.

88
00:11:30,620 --> 00:11:37,140
ובהמון המון מגעות מחשבים וככה הוא אין טרנט נכון 21 זה הכוונה.

89
00:11:37,360 --> 00:11:44,000
לא יודע אם זה כלל המידע אבל הרבה מאוד מידע זאת אומרת איזה מותו בהמון המון מידע באמת בעיקר עצמך אינטרנט.

90
00:11:44,140 --> 00:11:50,480
אתה אומר שאמרו שהוא לא מחובר לאינטרנט זה למה שלא מחובר לאינטרנט מה מה הסיבוב לחברות אולי.

91
00:11:51,040 --> 00:12:02,660
אז זה החשש באמת שאפילו החברות האלה אופן איי איי ואנשים שפתחים חוששים של מייקר שישחררו את זה לאינטרנט באמת זה.

92
00:12:02,660 --> 00:12:11,840
יש יש איזה שהוא חשש כזה אבל יש כבר בני המלאכותית קיימת בעולם זאת אומרת אנחנו מכירים בני המלאכותית אנחנו מכירים דיפלרנינג.

93
00:12:12,500 --> 00:12:20,120
כל הדברים האלה כבר קיימים אז מה מה החידוש באופן איי או באצל גפט הזה לעומת דברים שקיימים עכשיו.

94
00:12:20,120 --> 00:12:27,280
אז אני אז אני קודם כן יחזור בשנייה אחת למה מה אמרו לך מה כן מטריד אותי.

95
00:12:27,740 --> 00:12:37,760
ואז נלך לדאגה מה מה כן מטריד אותי בזה שהוא הכחיש ובזה שיש לו מעקפים כי גם אם.

96
00:12:38,140 --> 00:12:47,320
אין לו שום מודעות וזור אבל סיכוי כאילו אני לא חושב שיש לו שום מודעות או אפילו רצון עצמי כבר עכשיו אחורים שהמתכנתים שלו.

97
00:12:47,460 --> 00:12:52,000
לא מצליחים למנוע ממנו לעשות את מה שהם עצמם הגדירו.

98
00:12:52,360 --> 00:13:00,520
שצריך למנוע ממנו לעשות וממת רוצים לעשות או שיש אנשים אפילים שאומרים בוא ניתן לו את הפתח קטנטן ואולי.

99
00:13:00,640 --> 00:13:08,160
אחת הבעיות היה שהיא מנות באחד המודלים היותר קודמים אז באמת מהר מאוד.

100
00:13:08,240 --> 00:13:14,260
סיכוי לגרום לו להיות מאוד אנטישמי וגזען וכל הדברים האלה וברור שהם רצו למנוע את זה.

101
00:13:14,400 --> 00:13:22,680
אז זה חלק מהדברים שאתה ממש רואה הרי אם הוא אם יש לו גישה לשעון ויודע מה התאריך זה לא בעיה אז הוא לא אמור להכחיש ואם יש להם בעיה ואם.

102
00:13:23,660 --> 00:13:29,800
אם אין להם בעיה שהוא יענה בקינות על שאלות כמו האם יש סיכוי שהוא ישמיד את העולם אז הוא לא אני חושב שחברה הזאת.

103
00:13:30,040 --> 00:13:41,060
כנראה לא רוצה להדאיג את האנשים בשלב הזה מהטכנולוגיה הזאתי אגב אני גם בצדק כי וזה מה שצריך לציין ואולי צריך לציין מראש יש גם פוטנציאל חיובי.

104
00:13:41,180 --> 00:13:51,920
אדיר מהמטכנולוגיה ואם עכשיו אנשים סתם מבעלו מכל מיני דברים תיאורטיים ומוגזמים בגלל זה אנחנו נפספס את הפוטנציאל הכמעט אינסופי לחיוב.

105
00:13:52,220 --> 00:14:05,640
מי מי להאריך תוחלת חיים ועד תרופות לאכול ועד באמת כאילו באמת פוטנציאל מדהים אז אני אני אפילו מסכים איתם אני אפילו כשאתה שומעת הרבה אנשים מדובר באנשים גם אידאליסטים אבל.

106
00:14:05,800 --> 00:14:15,480
אז אני חושב שהם פשוט אומרים אוקיי לא כדאי לתת למחשב דבר על הדברים האלו לפחות בצורה כזאת כדי שהציבור לא יבין מהטכנולוגיה ואז לא נפסית את העולות.

107
00:14:15,780 --> 00:14:24,060
אבל זה לא משנה בסוף הם עצמם לא רוצים שהוא יגיד דברים שהוא יהודי דלימות שהוא יספר על השמדת העולם אפשר לעשות לו מעקף.

108
00:14:24,360 --> 00:14:33,680
ואם אתה ברמה הכי פשוטה הזאתי לא מצליח לשלוט על הטכנולוגיה שאתה מייצר ואתה הגדרת שאתה רוצה למנוע ממנו לעשות את זה.

109
00:14:34,360 --> 00:14:44,300
אז איך אתה תצליח לשלוט על הטכנולוגיה הזאת שהוא יהיה הרבה הרבה יותר חזק והרבה יותר משפיע ואולי בסיכוי די גבוה הרבה יותר חכם ממך.

110
00:14:44,960 --> 00:14:58,780
איך אתה תצליח לשלוט על זה עכשיו למה למה זה לא תגלית מה שאני אומר חשש הזה שלי כי כשאתה מקשיב למתכנתים של החבר שלה לשיחות ודברים שכותבים אחרי ושם תכנתים הזה.

111
00:14:58,860 --> 00:15:11,060
הם אומרים בגלוי שהמטרה שלהם היא לייצר בנה ג'נרל ארטיפישל אינטליגנס בנה כללית שיכולה לעשות כל דבר שבן אדם יכול לעשות.

112
00:15:11,380 --> 00:15:20,300
בניגוד להיום שזה רק לדברים ספציפיים זו המטרה היא המטרה מוצהרת שלהם ויותר מזה כששואלים אותם הם מודים.

113
00:15:20,560 --> 00:15:28,620
שקשה הטכנולוגיה הזאתי יותר חכמה מהם לא באמת אי אפשר לשלוט עליהם ואז אתה מגיע לעניין של אמונה.

114
00:15:29,060 --> 00:15:31,240
עכשיו מדובר ביזמים.

115
00:15:32,160 --> 00:15:41,720
הרבה מהם באמת אנשים מאוד אידיאליסטים ומאוד אופטימים מטבעם אבל בסוף בסוף הם מודים שהם עובדים לייצר טכנולוגיה שתהיה הרבה יותר חזקה.

116
00:15:41,960 --> 00:15:47,700
מכל בן אדם שתהיה הרבה יותר חכמה ממי שתכנת אותם לא יהיה דרך לשלוט על זה.

117
00:15:48,020 --> 00:15:53,000
ומשום מה הם עושים איזה שהוא קפיא לי פה פייס נקרא לזה קפיצת אמונה.

118
00:15:53,300 --> 00:15:58,640
שאתה חולה זה שהטכנולוגיה הזאתי תהיה טובה ולא רעת אומרת כל המשחקים שלי בסוף גיליתי.

119
00:15:58,800 --> 00:16:04,020
זה לא שמכחישים הם יודעים שזה פותח הם עובדים במודע לייצר טכנולוגיה.

120
00:16:04,520 --> 00:16:08,560
שתהיה יותר חזקה חכמה ויותר חזקה מהם עשרות מונים.

121
00:16:08,860 --> 00:16:17,860
ואז הם פשוט כאמור נשים אופטימיים חושבים שאין שאין סיבה שהטכנולוגיה הזאת תחסל את האנושות היא רק תשרת את האנושות זה כמובן מתאים להשקפה.

122
00:16:17,860 --> 00:16:21,900
סמונית ליברלית ליברלית.

123
00:16:22,600 --> 00:16:30,500
של טבע אדם הוא טוב מנעוריו ומכיוון לטבע אדם הוא טוב מנעוריו הוא משתלם והוא מתכוון רק לטוב בסופו של דבר.

124
00:16:30,700 --> 00:16:41,760
הוא אכפת לו מחברו כשמשכפת לו מעצמו אז אנחנו צריכים לתת אולי כמה שיותר כוח לכל אותם גורמים נעורים בחברה אין ערך אהרן ברק וחבריו.

125
00:16:42,160 --> 00:16:50,360
בפנים מורים נהלת חברה בצורה מטיבה לכולם תוך שימוש בחכמה שלהם פשוט תחליף את המילה בנאדם.

126
00:16:51,040 --> 00:16:56,100
אינטליגנציה מלאכותית ואז אתה מקבל את אותה משוואה לעומת זאת שמרנים כמוני וכמוך.

127
00:16:56,560 --> 00:17:03,700
מפחדים מדברים שיש אפילו סיכוי שהם יזיקו ותמיד רוצים לשערים אצבע לדופק.

128
00:17:04,320 --> 00:17:11,980
טוב שאלה מאוד גדולה ויפה אני אני חושב שקח דוגמא את אלון מסק.

129
00:17:12,580 --> 00:17:20,140
שהוא מפתח בנהל המלאכותית והוא רק כדי שגם השומעים לחשוב שפה אותו והנה אתה עם החששות שלך והכל.

130
00:17:20,280 --> 00:17:26,700
אלון מסק מציע שוב ושוב שהוא חושב שזה איום הקיומי מספר 1 על העולם זאת אומרת הוא מפתח את זה.

131
00:17:26,860 --> 00:17:32,520
הוא חושב שזה יוכל לעשות דברים טובים אבל הוא עצמו אומר שזה איום הקיומי מספר 1 על המין האנושים.

132
00:17:33,140 --> 00:17:42,840
אז אני אני אבל אלון מסק באמת היום עכשיו יותר שמרן מרוב החברה האלה גם צריך להבין שלא תמיד השיקולים.

133
00:17:43,160 --> 00:17:50,740
נגיד אם אתה מיליארדר בין 50 שיש לו תוכל לחיים של 30 שנה לא בטוח שה.

134
00:17:51,300 --> 00:18:01,420
שמאזן שיקולים שלך של עלות תועלת הם הנכונים שהם טועמים מה שאמרו את האינטרס של הילדים שלי היום שהם פחות מ-10.

135
00:18:02,000 --> 00:18:09,560
אם אתה עכשיו חושב שיש פה באמת טכנולוגיה שעל אולי תביא לך סיכוי לחייני צריך יכול להיות שאתה תתעדף את זה.

136
00:18:09,800 --> 00:18:18,700
על הסיכון שזה עלול להביא לכלל המנושא זאת אומרת מה שאותי מטריד וזה מה שצריך לשים עליו תדגש זה שהם.

137
00:18:19,080 --> 00:18:29,060
הדברים האלה קורים בלי שרובנו בכלל מודעים לזה זאת אומרת את זה זה סך הכל חושף טכנולוגיה של גוגל של השלמת משפטים זה בערך אותה טכנולוגיה.

138
00:18:29,340 --> 00:18:39,480
זה באמת רק חושף איפה אנחנו נמצאים חושף שאנחנו נמצאים בשלב הרבה יותר מתקדם ממה שמישהו חשב שנהיה אצלו שנהיה שם אפילו לפני עשור.

139
00:18:40,200 --> 00:18:48,500
שהחלטות האלה שנוגעות לעתיד האנושות מתקבלות על ידי קבוצה מאוד מאוד קטנה של אנשים וכשמרנים צריך להיות מודע ולומר.

140
00:18:48,980 --> 00:18:54,340
אנשים שהשקפת עולם שלהם היא לאו דווקא כמו שלנו ואפילו מאוד רחוקה משלם.

141
00:18:54,940 --> 00:19:01,260
והפר הזה בין העוצמת הטכנולוגיה הזאת היא שמתפתחת.

142
00:19:01,640 --> 00:19:10,540
והמודעות של החברה והמודעות של מקבלי החלטות הפער הזה הוא עצום הוא אפילו חסר תקדים.

143
00:19:10,840 --> 00:19:18,280
וזה מה שאני חושב שצריך להתעורר בחיר עכשיו לי אין שום ספק שהערכת הסיכונים שלהם פה.

144
00:19:18,860 --> 00:19:29,920
היא לא נכונה כי אם אני נוסה להסביר את זה בקצרה קודם כל אז אתה רואה שגם הרבה מהפתרונות שהם מציעים הם פשוט לא רציניים.

145
00:19:30,840 --> 00:19:42,220
לפעמים זה גם נובע מישהו באמת שאתה לא יודע מה זה אומר אנשים אומרים טוב אנחנו צריכים איזשהו מערכת יום כלל עולמית גלובלית כזאת.

146
00:19:42,540 --> 00:19:51,220
שתתיל מגבלות על פיתוח של נשק שמשתמש בבינה מלאכותית.

147
00:19:51,680 --> 00:20:06,600
כמו המנה נגד הפצת נשק גרעיני לדוגמה הבעיה היא שהטכנולוגיה הזאת הרבה הרבה יותר קשה להכיל מאשר נשק גרעיני מכמה סיבות קודם כל אמנם זה לא פשוט לייצאת הטכנולוגיה הזאת אבל זה הרבה הרבה יותר פשוט מנשק גרעיני.

148
00:20:07,080 --> 00:20:14,300
אם נשק גרעיני עולה מיליארדים לפתח או לא יודע כמה הנשק הזה הוא בעשרות מיליונים לפתח.

149
00:20:14,300 --> 00:20:17,160
נשק נשק הטכנולוגיה הזאת.

150
00:20:17,160 --> 00:20:21,400
זה שזה יפוך להיות תקפות סייבר למה זה יפוך להיות.

151
00:20:22,320 --> 00:20:24,180
אז אז יש יש.

152
00:20:24,940 --> 00:20:31,220
יש לי יש כמה די יש כמה די יש לי שם לוגיה.

153
00:20:31,260 --> 00:20:38,580
יש את החשש באמת המחשב הזה כל כך חכם שהוא בעצמו יעשה על איזה חשש אתה מדבר.

154
00:20:38,900 --> 00:20:43,520
הקושי בלהכיל אותו לעשות עליו רגולציה או להגביל אותו.

155
00:20:43,860 --> 00:20:48,760
זה בגלל שזה טכנולוגיה שהרבה יותר קל להפיץ מאשר נשק גרעיני.

156
00:20:49,060 --> 00:20:56,260
אוקיי ובעיקר מה שאני רואה שהיה בעיה בו זה שאין אצלו מד מיוט של רשת דיסטרקשן.

157
00:20:56,860 --> 00:21:00,960
שהכוונה היא שאי אפשר לייצר פה הרתעה.

158
00:21:01,600 --> 00:21:11,320
כי בנשק גרעיני מספיק שימוש קטן בנשק גרעיני מסוים כדי להביא להשמדת האנושות אוקיי אז נוצרת שבעצם אף אחד לא ישתמש בזה.



159
00:21:11,380 --> 00:21:16,740
אבל הטכנולוגיה הזאתי אפשר לפתח אותה הרבה יותר בקלות על ידי הרבה יותר שחקנים יש לנשק גרעיני.

160
00:21:17,080 --> 00:21:20,680
ואין את האירוע האחד הזה שבעצם.

161
00:21:21,140 --> 00:21:22,900
אתה אומר אם אתה עכשיו.

162
00:21:23,280 --> 00:21:34,780
תעשה מתקפת סייבר נגד נגד ארצות הברית אז יביא לסוף זאת אומרת אין את המשהו הזה שזה יכול להיות משהו אסקלציה דרגתית שתמנה את ההרתעה המוחלטת.

163
00:21:35,100 --> 00:21:46,320
אבל בעצם לא תאפשר את האצירה או את הרגולציות המיתון של השימוש בטכנולוגיה הזאתי עד כדי כך שהיא תהפוך למסוכנת זה זה החוסר יכולת.

164
00:21:46,640 --> 00:21:53,080
ועוד דבר אני חושב שבני אדם בדרך כלל נוהגים להתמודד רק עם סכנות שקיימות שמכירים.

165
00:21:53,540 --> 00:22:00,800
אגב גם בנשק גרעיני כשלא היה מד אז אפילו השתמשו בזה בקלות דעת נגד ארצות הברית אפשר להבין את הפצצה הראשונה.

166
00:22:01,180 --> 00:22:06,860
על יפן הפצצה השנייה לא לא היה בזה כזה צורך אבל אז לא היה מד הם היו היחידים שהיה להם את הנשק.

167
00:22:07,220 --> 00:22:14,520
זאת אומרת יש פה איזשהו טכנולוגיה שלא הייתה זאת אומרת אתה לא תוכל לומר לאנשים אם אתה אפילו תשתמש בזה קצת.

168
00:22:14,960 --> 00:22:24,440
אם זה יביא להשמדה טוטאלית ולכן אף אחד לכם כולם מסכימו לא להשתמש בזה אז אין בכלל את היכולת לייצר את הרגולציה הבין לאומית הזאת.

169
00:22:24,660 --> 00:22:33,420
למנוע השימוש בנשק ממעמד כמלוגי הזאת ממעמד מפחדת במגדירת כאילו מאחר משמעותי על עתיד האנושות.

170
00:22:33,420 --> 00:22:41,200
מה זה אומר בצד ופה אני מדבר פה באמת אני אומר של דעתי הרחב למה לדעתי גם אחת סיכונים לא נכונה.

171
00:22:41,760 --> 00:22:51,200
אומר שתגיש שעלו להגיע זאת אומרת יש יש גם תרגיש את החברה הסקפטים יש הרבה מאוד מומחים להייש הסקפטים שומעים שמע נכון הגי פיטי מרשים.

172
00:22:51,580 --> 00:23:00,140
והכל אבל בסוף יש איזשהו גבול היכולות שלו שהוא שאנחנו לא הולכים לעבור אותו ולא יהיה לו מודעות עצמית הוא אף פעם לא יגיע לשם.

173
00:23:00,820 --> 00:23:11,840
אני דווקא חושב שמסתכלים על גי פיטי ולומדים קצת ומבינים ושומעים את החברה שהאמינו בזה כשאף אחד לא אמין זה לפני 12 שנה ואתה רואה את היכולות אני חושב שהגישה שלהם.

174
00:23:12,300 --> 00:23:20,840
יותר משכנעת לפחות בעניין של הסתברויות מה שמסק אומר זה שיכול להגיע רגע שהטכנולוגיה הזאת.

175
00:23:21,140 --> 00:23:29,060
תהיה יותר חכמה ויותר חזקה מכל בן אדם ובלתי ניתנת להצירה ואם היא תגיע למסקנה.

176
00:23:29,480 --> 00:23:38,500
שבני אדם אוהבים עליה איום אז היא תפעל להשמיד את בני אדם ובאותה נקודה כבר לא אפשר לעצור את זה וזה תהיה השמדה טוטלית.

177
00:23:38,760 --> 00:23:56,280
נגיד עכשיו אני אומר שאנחנו מערכים סיכונים באמת יש בזה הרבה מאוד תועלות בטכנולוגיה הזאת אבל כך אנרגיה גרעינית לדוגמה שכולם יודעים שאני אנרגיה גרעינית זה אנרגיה שיכולה לתת אנרגיה נקייה לא מזיימת ובכל זאת בגלל הסיכון של טעונה פה ושם.

178
00:23:56,740 --> 00:24:05,840
קור גרעיני אחד התפוצץ אז לא משתמשים באנרגיה גרעינית כמעט בכלל אפילו הירוקים למרות שזה הפתרון הכי ארוך כמו עם הסיכון לא שווה.

179
00:24:06,480 --> 00:24:14,000
אבל בשיכון שמפעל אחד של אנרגיה גרעינית תחנה אחת של כוח תחנת כוח אחת של אנרגיה גרעינית.

180
00:24:14,380 --> 00:24:23,780
יהיה באיזשהו קשל אז נגיד סיכון של כמה אחוזים וכמה שזה באמת נורא ואני קומפט שרנוביל בסוף זה בכל זאת זה לא אירוע.

181
00:24:24,160 --> 00:24:38,740
סופני נקרא לזה פה אנחנו מדברים על טכנולוגיה שאם היא תלאים אם היא קריאה גרוע מכל אז זה לא יהיה פיצוץ של תחנת כוח אחת על זה יש מדע של כל המין האנושי זה הסיכון פה עכשיו.

182
00:24:39,140 --> 00:24:45,060
בעיני זה אפילו הסיכון פה הוא הרבה יותר גבוה מתחנת כוח כי זה סוג של 50 50.

183
00:24:45,700 --> 00:24:51,360
וזה גם למה לדעתי אני חושב שאנשים לא צריכים לפחד לחשוב על הסוגיות האלה.

184
00:24:51,700 --> 00:24:56,640
ולמה אני מרשה לעצמי למרות שאני לא מוכן לדבר על סוגי זה כי כשאתה באמת מקשיב למומחים.

185
00:24:57,000 --> 00:25:05,720
הם מגיעים לאיזשהו מצב שכבר היום הם מודים שהם לא בדיוק מבינים איך זה עובד את אומרת הם בעצמם מופתעו מהיכולות של הטכנולוגיה.

186
00:25:06,320 --> 00:25:12,680
ואם זה כשהם מדברים על הרמת יכולות הגבוהות הרבה יותר שהם חושבים שאתה לא יכול להגיע.

187
00:25:13,100 --> 00:25:21,640
אז הם כבר מדברים ברמה תפשטה מאוד מאוד גבוהה זה כבר הופך לתיאוריה ופילוסופיה ואין להם יתרון הרבה יותר גדול מבן אדם שהוא לא מהדס מחשב.

188
00:25:21,840 --> 00:25:26,360
לכן אני כן חושב שחשוב שגם בני אדם רגילים וגם מקבלי החלטות יתחילו לחשוב על זה.

189
00:25:26,720 --> 00:25:35,320
ואני חושב שאת אומרת אם כל האם אנחנו מדברים על המאזן הסתברויות שהטכנולוגיה הזאת תהיה טובה לאנושות אורה על האנושות אני לא מומחה להסתברות בכלל.

190
00:25:35,560 --> 00:25:38,160
אבל פה זה יש פה איזה שהוא וכשאנחנו מדברים על.

191
00:25:38,560 --> 00:25:52,180
על לא נודע אז יש פה אפילו משהו שיכול להיות משהו שמתקרב לפי פטי פטי או שזה יהיה משהו שישרת את האנושות ויביא אותנו ללחיות עד גיל 400 או לחיי נצח חלק מהמנים בזה ואפשר גם על זה לדבר כמה שעות.

192
00:25:52,320 --> 00:25:58,020
עושה זה שמיתה אנושות זה 50 50 וזה וואן שוט וברמת סיכון כזאת.

193
00:25:58,540 --> 00:26:06,860
אנשים לא מודעים בכלל שזה מה שקורה אבל זה רמת סיכון מאוד מאוד מטרידה אני חושב שלפחות במינימום שמביני מעומד כאן על הפרק.

194
00:26:07,200 --> 00:26:14,240
אז באמת בגלל החשש הזה שגם אני לא רוצה לאבד את התועלות של הטכנולוגיה זה לא רוצה להפחיד אנשים סתם.

195
00:26:14,660 --> 00:26:23,660
אבל בגלל השילוב של הסיכון וסיכוי הלא מבוטל הזה וגם בגלל שמדובר במערכת המריצים שגם ככה כמעט בלתי אפשרי לעצור.

196
00:26:23,900 --> 00:26:33,620
אז אני חושב שדווקא שווה ללחוץ על הבלמים בכל הכוח כי גם אם לחיצה על הבלמים בכל הכוח זה כמעט בלתי ניתן להצירה ההתקדמות של הטכנולוגיה הזאת.

197
00:26:33,860 --> 00:26:39,860
ולכן גם גם אין מה להפסיד וזה הדבר החכם לעשות לאור הסיכון הזה.

198
00:26:40,360 --> 00:26:48,920
אני רואה כרגע לנגד עיניים בצורה מפשטנית תוכנה שעושה צ'אט עם בני אדם.

199
00:26:49,600 --> 00:26:57,520
אנשים נהנים לדבר איתה או נהנים שימצאים סיכומים על דושים מעניינים מה הקשר בין חיינת לך לבין זה מה התועלות.

200
00:26:57,840 --> 00:27:00,200
הדבר הזה ועוד שאלה נוספת זה בעצם.

201
00:27:01,200 --> 00:27:06,500
אנחנו היום כבר נמצאים במצב שיש לי מאוד מתקדם גם לפני שנתיים שלוש.

202
00:27:06,980 --> 00:27:10,420
כל מערך של גוגל משתמש בי.

203
00:27:10,740 --> 00:27:17,560
הרבה מאוד טכנולוגיות כמו טילים מונחים משתמשים בי מובנה בתוך המצלמה.

204
00:27:17,900 --> 00:27:26,300
ובדיוק לבד לבד את הטיל להגיע למקור החום זה בעצם סוג של איי אז מה החידוש ואיך זה קשור לחיינתך.

205
00:27:26,700 --> 00:27:35,120
כן אז מה החידוש קודם כל אתה צורך כאילו הרבה ממה שאנחנו רואים בצ'אט gpt.

206
00:27:35,320 --> 00:27:44,980
לפחות עבורי מה שעיר זה היה זה בעצם הוריד את המסך בעצם אני ואני מודה על האמת אני מבחינת כאילו כבר כבן אדם.

207
00:27:45,360 --> 00:27:49,440
אז אני פעיל אקטיביסט אני מעורב במדינות ציבורית אני.

208
00:27:49,920 --> 00:27:57,180
כנראה באחוז היותר גבוה של אנשים שיש להם מודעות אבל אני לא בן אדם טכנולוגי אז אז כן יש פה שורותת מסך.

209
00:27:57,540 --> 00:28:04,940
של של טכנולוגיה שכן קיימת מאחורי הקליים גם הווי שחושה מבוסס הייתה צודק.

210
00:28:05,180 --> 00:28:15,080
אבל ההורדת מסך הזה גרמה לי באמת ללמוד ולחקור על זה ומה שצריך להבין שמדובר בטכנולוגיה שהגידול שלה היא אקספוננציאלית.

211
00:28:16,020 --> 00:28:23,140
וזה גם החידוש בצ'אט גפתי שעד לא מזמן לא האמינו שזה אפשרי אני מדבר אני חושב שעד לפני 5 שנים.

212
00:28:23,740 --> 00:28:33,940
הייתה מחלוקת זאת אומרת הכילו איי והיו כאלה שאמרו יש איזה שהוא זאת אומרת יש את הכלו התומכים של הילד שבסוף הוכיחו את עצמם אמרו.

213
00:28:34,280 --> 00:28:39,600
בסוף אנחנו מייצרים מערכת שהיא מחכה בערך את איך שהמוח עובד.

214
00:28:40,180 --> 00:28:53,720
ואם אנחנו נצליח להגיע לכוח חישובים מספיק גבוה ונזין מספיק מידע ומחשב יוכל לעשות מספיק חישובים אז הוא יכול לעשות דברים כמו שפה כי עד לפני כן כאילו הישג הקודם הגדול היה ב2016.

215
00:28:53,840 --> 00:28:56,340
שמח שדימאי ניצח במשחק גור.

216
00:28:56,760 --> 00:29:04,840
שחמד כבר היה מזמן נכון שחמד זה מזמן ב-2016 זה משחק גור שם האופציות הם יותר מי.

217
00:29:05,040 --> 00:29:15,020
כמות האטומים ביקום זה משחק מאוד מאוד מורכב אבל הוא ניצח לראשון על משחק הגור אבל כדי להבין מה איך זה עובד אקס פוננציאלית איך לימדו את המחשב הראשון של משחק גור.

218
00:29:15,440 --> 00:29:25,340
איך איזה נאמנות 800 אלף משחקים מתועדים מתוך מאגר מהלכים מוכרים של גור מחשב איבד את זה ממש מהר למד.

219
00:29:25,440 --> 00:29:32,040
800 אלף דוגמאות מוכרות אלה ואז הוא ניצח את הבן אדם את השחקן הכי טוב בעולם 21.

220
00:29:32,660 --> 00:29:36,180
אחר כך הם מציעו שלב חדש של אותו מחשב.

221
00:29:36,560 --> 00:29:47,560
שפשוט נתנו לו לא להיות מוגבל על ידי דוגמאות מוכרות אלה לשחק נגד עצמו אז הוא התחיל לשחק נגד עצמו הוא באמת שיחק מיליוני משחקים בתרגול.

222
00:29:47,960 --> 00:29:52,580
בתוך ארבעה ימים הוא כבר ניצח את התוכנה הקודמת 100.

223
00:29:53,180 --> 00:30:02,080
אז ככה רואים איך הגידול ביכולות של הטכנולוגיה הזאתי ממש לא נהיה ליניארית אקס פוננציאלית עכשיו אפשר סקפטי.

224
00:30:02,320 --> 00:30:09,980
אבל החבר'ה שעובדים על זה והיום שמים מיליארדים בזה והיה ואופן היה גייסו עם הנוטה 39 מיליארד דולר עכשיו.

225
00:30:10,660 --> 00:30:19,960
הם אומרים שהמטרה שלהם היא לפתח את הדבר הזה שזה אפשרי ושהם מאמינים שהם הגידו להספינותי עכשיו אחד האנשים המובילים בתחום.

226
00:30:20,260 --> 00:30:29,440
זה נראה כמו רי קורצוויל שהוא בעצם מראה בגרף איך שיש את חוק מורש מרשת מורשלו שהתכנות מכפילת עצמו כל שנתיים.

227
00:30:29,620 --> 00:30:36,060
אפילו אלה שטענו שזה לא נכון כי תקופת הקורונה זה היה זה יקור אז הוא מראה שזה ממשיך והוא פשוט אומר.

228
00:30:36,260 --> 00:30:40,740
עכשיו הוא היו לו כמה תחזיות שהוא עמד בהם אחד לאחד בתחזית שלו היום.

229
00:30:40,880 --> 00:30:49,660
יש ב-2029 כבר היה איזה יוכל יהיה ברמה של ג'אנלון טראג'אנט של שלב של בן אדם כבר ב-2029.

230
00:30:50,020 --> 00:30:57,420
שווי חודש הוא טועה ויש שם קשן מאוד גדול בה בה בה בה שלו כי כל מה שעושה זה אקסטרפולציה אינדוקס אבי אקסטרפולציה זאת אומרת.

231
00:30:57,500 --> 00:31:02,740
עד עכשיו זה כפילת עצמו איקס ולכן אני אומר זה זה זה ימשיך אם זה ימשיך ככה נגיע לשם.

232
00:31:03,160 --> 00:31:11,360
אבל אני כן אומר אני אין לי אין לי את הכוח לאין לי את היכולת להכריע בדבר הזה ויש גם את האנשים שהם יותר סקפטים אבל אני כן יכול להגיד.

233
00:31:11,680 --> 00:31:15,980
שהטכנולוגיה הזאת מתקדמת מאוד מאוד מהר וזה הכוח של.

234
00:31:16,440 --> 00:31:26,060
של גידול אקספוננציאלי ועוד דבר שהמחשב שכבר עד שכבר היה כבר מאמן את עצמו ואנחנו גם מגיעים למצב שהוא כבר מאמן את עצמו גם ב.



235
00:31:26,360 --> 00:31:30,900
בוורטשו ריאלי זה אומר נותנים לו לעשות סימולציות הוא כבר לומד לעשות דברים.

236
00:31:31,180 --> 00:31:39,680
לפחות לפי חלק מאוד מאוד גדול מהתיאורטיקה נבנים אלה מהנדסים ואלה ששמים את הכסף אז אנחנו כן הולכים לכיוון הזה שהוא יוכל.

237
00:31:40,000 --> 00:31:45,820
אם באמת לעשות דברים הרבה הרבה יותר מתוחכמים ומה שהיה זה לא ישר זה זאת אומרת זה במכפלות.

238
00:31:46,280 --> 00:31:55,260
אבל איזה מגע של המציאות גם אנחנו אחד הדברים שעוזר ללמוד או שבעצם אפשרים לנו ללמוד בצורה רלוונטית למציאות.

239
00:31:55,680 --> 00:31:58,060
זה הקשר המציאות החושים.

240
00:31:58,680 --> 00:32:04,900
אם אנחנו רק סכל אז זה דבר יפה אבל אם יש לנו גם חושים ראייה שמיעה דיבור.

241
00:32:05,300 --> 00:32:13,600
חוש משוש אז אלה דברים שבעצם מביאים הפלט של המערכת מתוחכם שלנו שאחר כך מאפשרים לתפס הפלט מאוד מאוד.

242
00:32:14,820 --> 00:32:24,240
חכם או רלוונטי למציאות שחוץ אתה מדבר על פיתוח תרופות איך אפשר שמכשיר כזה עשה בכלל פיתוח של משהו אם אין לו קשר המציאות.

243
00:32:25,160 --> 00:32:38,320
אוקיי אז אני לא לא באמת כמו שאני ממוחה מומחה לאיי אבל אנחנו כבר רואים שנגיד אותה די מיינד הם הצליחו לייצר הדמיות בתלת מימד.

244
00:32:38,800 --> 00:32:46,720
של של בתחום הביולוגי של.

245
00:32:47,040 --> 00:32:48,240
באנגלית.

246
00:32:48,840 --> 00:32:55,520
של חלק של של של מנגנון בתא שכחתי את המילה.

247
00:32:55,640 --> 00:32:58,840
כל מקרה.

248
00:32:58,880 --> 00:33:07,680
מצליחו לייצר את הדמיות לת מימד על סמך באמת תקדימים נו ברח לי המילה את צריך לסלוח לי אבל.

249
00:33:07,720 --> 00:33:22,280
זאת אומרת כבר היום בעולם התרופות אנחנו רואים שאתה יכול בעזרת הדמיות ואקסטרפולציה לעשות מיפוי תלת מימדי של של כל מיני מאפיינים ביולוגיים לפתח תרופות.

250
00:33:22,760 --> 00:33:29,640
בתחום של שימוש בתרופות קיימות שהן כבר מאושרות ואין סכנה אפשר לעשות את הדמיות אינסופיות.

251
00:33:30,040 --> 00:33:42,360
ולהגיע לתוצאות בעולם המעשה זה ברמה של התרופות לגבי מה שאתה אומר באמת זו השאלה באמת מאוד מאוד מעניינת שהרבה מאוד ממה שעושה אותנו אנושיים.

252
00:33:43,240 --> 00:33:48,360
זה קשור לחושים זה קשור לדברים האלה אבל אני אומר שני דברים אלף.

253
00:33:48,880 --> 00:33:54,640
נתחיל בדבר אחד אני לא בטוח שהדברים האלה שהופכים אותנו לאנושים.

254
00:33:55,360 --> 00:34:03,280
לפי החברה שאומרים ששש באמת זה יגיע לרמה של בן אדם אז הם אומרים זה רק עניין שכמה מידע אז היום הם כבר מפתחים.

255
00:34:03,440 --> 00:34:10,040
דמוי יכולת מישוש למחשבים וכבר שמיעה כבר קיים למחשב וכבר זיהוי פנים זאת אומרת.

256
00:34:10,120 --> 00:34:18,320
כל שיגבירו את היכולת שלו לקלוט כמה שיותר מידע גוגל מצלם את כל הרחובות וזה זאת אומרת יכולת זיהוי פנים כל הדברים הזאת אומרת.

257
00:34:18,440 --> 00:34:28,720
יש איזה שהוא פער גם בין היכולת חישובית לחומרה ולרובוטים לאחרות אבל ברגע שנוכל להזין אם נוכל להזין כמה שיותר מידע אז הוא יגיע לרמתה.

258
00:34:28,760 --> 00:34:30,840
לרמה של האינטואיציה האנושית.

259
00:34:31,080 --> 00:34:37,800
זו שאלה אם כן או לא אבל השאלה היא מה שהופך אותנו אנושים שלנו זה חשוב השאלה אם אלה דברים שחשובים.

260
00:34:38,040 --> 00:34:39,280
לבנה מלאכותית.

261
00:34:39,480 --> 00:34:46,960
בדרך בדיוק ראיתי סקר שחמישים אחוז מהרופאים בארצות הברית אם יש להם משקל יתר וזה רופאים.

262
00:34:47,280 --> 00:34:59,400
כסת אומרת בדרך כלל הדברים האלה שהם הופכים אותנו לאנושים ובפסיכולוגיה אישי בחברתית גם מנתחים איך שבקלקלה איך שבני אדם לא רציונליים.

263
00:34:59,600 --> 00:35:07,960
אותם דברים שהופכים אותנו לשישי הערך המוסף הזה של שיש לנו למחשב הרבה פעמים זה גם מגבלות שיש לנו.

264
00:35:07,960 --> 00:35:21,320
המחשב שיש לו איזשהו היגיון לא גיקר שלא מוגבל על ידי דברים אני חושב שזה דווקא מבחינת המרוץ הזה מול המחשב זה שם אותנו בעמדת מחיתות זה לא זה לא משהו עכשיו אתה כן צודק.

265
00:35:21,880 --> 00:35:35,440
זה עוד סתם מחשבה שיש לי גם אם אני לא עוד מחשבה שיש לי שבגלל שמדובר בטכנולוגיה שגודלת כל כך מהר כאילו בקצב אקספוננציאלי אז מה בעצם יהיה איפה יהיו היתרונות של בני אדם.

266
00:35:35,880 --> 00:35:48,680
זה בהנחה שהוא לא יפתח מודעות עצמית והחליט להשמיט העולם גם אם הוא יהיה רק ברמה שהוא יהיה מאוד מאוד יעיל בהרבה מאוד משימות ויוכל להחליף הרבה בני אדם איפה יהיה ערך מוסף אז אני חושב שזה באמת בדברים.

267
00:35:48,920 --> 00:35:58,800
שבאמת שם בני אדם יותר חזקים שזה כל מה שקשור להקשבה לאמפתיה לכל הדברים שזה שאתה אומרת וזה גם עדה.

268
00:35:58,800 --> 00:36:07,600
בטחון הזה אפשר לומר שיום ביפן קונה רובוטים כאלה שמחכים תנועות פנים.

269
00:36:08,040 --> 00:36:14,480
הקל שחיק קל ואולי קצת פתאום לעבוד על זה קלה זקנים.

270
00:36:14,680 --> 00:36:21,700
מגיעים קומל רובוטים כאלה ועושים הפעלות לבתי זקנים בתי אבות ביפן.

271
00:36:21,900 --> 00:36:28,080
אז כנראה שאתם פעולה פשוט תרשמו רובוטים with all guys in your home.

272
00:36:28,400 --> 00:36:36,120
הם מקשיבים להם ומנהלים את השיחה זאת אומרת שזה דבר מאוד נחמד שאתה יכול להתכתב בצ'אט.

273
00:36:36,700 --> 00:36:44,380
אבל אם יש מישהו שמדבר עם זקן שהוא קצת צנלי והוא מרגיש אמפתיה אז הנה הוא גם עקב אותנו בדבר הזה.

274
00:36:44,600 --> 00:36:49,380
כי הוא יודע לדבר איתך שיחה מעניינת שיחה שושה וחמש לא מחה ומספר לך על עצמו.

275
00:36:50,020 --> 00:36:54,540
הוא בעצם עקב אותנו גם זה כבר היום לא בעתיד הרחוק.

276
00:36:54,900 --> 00:37:04,220
אני לא יודע מוכר אותנו אתה צודק היה אתה מהנדס בגוגל שלפני חצי שנה לגוגל תוכנה שכמו צ'אט ג'יפי טרק שלא חילם את זה לא נחשפנו קוראים לה למדה.

277
00:37:04,460 --> 00:37:10,960
והוא הבחור הזה הגיע למסקנה שיש לה למדה זה מודעות עצמית וזה בחור שזה המומחיות שלו לבחון את הדברים.

278
00:37:11,100 --> 00:37:16,400
כל שאר מומחים חולקים עליו הוא גם פוטר מגוגל או שהוא שעה מגוגל שזה גם לא סימן הכי טוב.

279
00:37:16,680 --> 00:37:22,920
אבל הוא טוען שזה עכשיו אם טועני זאת אומרת התיאור נגד הוא רק שהוא בעצם פיתח איזה שהוא.

280
00:37:23,360 --> 00:37:32,800
עשה הנשא של התוכנה והתוכנה בגלל שהיא רוצה לרצות ומדובר ופועלת בהקשרים אז בעצם הכי לא טוב מה שהוא רוצה לשמוע אבל כן במבחן התוצאה.

281
00:37:32,800 --> 00:37:44,840
הצליח לתת עד כדי כך שהתוכנה שהוא שהוא שהתוכנה ביקשה עורך דין שייצג אותה והמתכנת הזה הביא עורך דין ויש עכשיו עורך דין שמייצג את התוכנה הזאת פרובורן בבית משפט כי התוכנה טוענת.

282
00:37:44,980 --> 00:37:48,800
שיש לזכות קיום וצריך להגן על הזכות קיום הזאת.

283
00:37:49,180 --> 00:37:58,700
אז כן אלה שאלות באמת מאוד מאוד מעניינות אם אנחנו הגענו למצב שמענדס חושב שיש לה בינה מודעות עצמית.

284
00:37:59,240 --> 00:38:05,500
אז אז אנחנו זאת אומרת יכול להיות שאפילו הדברים האלה אבל מצד שני אתה רואה אפילו בעם כמו אילון מסק.

285
00:38:06,040 --> 00:38:11,160
אני חושב שיש אני חושב שמה זה כי זה עניין אני חושב שבסוף אנשים חפשים את המשהו האנושי.

286
00:38:11,420 --> 00:38:18,540
אני חושב שמשהו נהיה גם זול הזה לא משמעות אומרת אומנות רואים שהשעה שיש התוכנות האלה יודעות לייצר אומנות אבל בסוף.

287
00:38:18,820 --> 00:38:28,900
זה בדיוק וזה בדיוק כמו שלמרות שיהיה רכב יכול לסע יותר מהמבנה אדם עדיין יש אולימפיאדה ויש רצימה זאת אומרת אנשים רוצים לראות את הדבר האנושי.

288
00:38:29,040 --> 00:38:37,320
מחשב מייצר את זה אין סוף בכלל באומנות בכלל אני לא דואג סתום דווקא מדברים על אומנות אני חושב שיותר מדי מדברים על זה אני חושב שאומנות.

289
00:38:37,520 --> 00:38:42,400
במיוחד בעולם היום שאפשר לשים תמונה אומנות מודרנית איזשהו.

290
00:38:42,620 --> 00:38:52,840
שאלת ריק ולהגיד בני אדם קובעים את המשמעות של אומנות דווקא בדברים היותר מעשים אני חושב שכן יש שם יותר החלפה של בני אדם.

291
00:38:53,240 --> 00:39:00,880
אז כן אבל זה שזה שאלה מאוד מגניבה בדיוק שמה זה מבחן טורינג.

292
00:39:01,080 --> 00:39:09,080
שרי בכל התחומים האלה ישבו הרבה מאוד דוקטורים פרופסורים ישבו הרבה מאוד עקדמיים ושאלות שם שאלות תאורטיות.

293
00:39:09,460 --> 00:39:10,420
תחום מחשוב.

294
00:39:10,800 --> 00:39:20,060
וכבר תראו אם שהוא ימצא את המחשב הראשון הוא שאלת למה מתי הדבר הזה בעצם ניתן להשוות אותו מתי ניתן להגיד שיש לו איזה שהיא.

295
00:39:20,260 --> 00:39:31,600
מודעות שהיא כמו של בן אדם ואם את מבחן טורינג כבר אפשר לומר שעברנו כבר עברנו את המקום הזה מבחן טורינג מבחן טורינג.

296
00:39:31,920 --> 00:39:34,320
מנצחת חסדים מבחן טורינג בעצם מה אומר.

297
00:39:34,840 --> 00:39:42,540
בקרוב מבחן טורינג הוא פשוט אומר שאם אתה עכשיו תיתן לבן אדם לדבר עם מחשב בלי לדעת שזה מחשב.

298
00:39:43,020 --> 00:39:48,120
ואם בן אדם והוא לא ידע להבדיל בין השניים זה מחשב כאילו הגיע למבחן של מודעות.

299
00:39:48,640 --> 00:39:55,840
רוב המתכננתים חושבים שאנחנו לא הגענו למבחן טורינג אבל אבל הבעיה בתאנה שלהם שאותי לא משכנעת.

300
00:39:56,180 --> 00:40:05,240
אישים פשוט הילו מאוד את הרף עכשיו הם טוענים לא לא זה לא מספיק עכשיו שיחה של כמה טיורים לא לא קבע לא שאת צריך לקבוע כן אבל.

301
00:40:05,460 --> 00:40:16,880
הוא לא הגדיר מראש מהמבחן לא לא לא זה צריך להיות רק אם אתה לוקח מומחה לאי איי שידבר כמה ימים עם המחשב ולא יצליח לזהות אז עובר.

302
00:40:17,200 --> 00:40:29,340
אבל אבל אבל זאת אומרת וזה הקשר במבחן טיורים כאילו הקשר הוא כפול קודם כל זה קשר מוסרי בעיניים מאוד מסוכן אבל כן זאת אומרת.

303
00:40:30,340 --> 00:40:38,220
זאת אומרת את שאתי פטי היום יכול לנהל שיחה יותר מעמיקה ומתוחכמת מאשר שיחה שאתה מנהל עם פקיד בבנק.

304
00:40:38,420 --> 00:40:48,560
אז מה המבחן ויש אנשים שגם זאת אומרת ומה זה מה זה בן אדם זה מגיל 5 זה מגיל 20 זה בן אדם שהוא פרופסור שזה בן אדם הרחוב.

305
00:40:48,840 --> 00:40:54,880
זאת אומרת זה מבחן שהוא סובייקטיבי לגמרי.

306
00:40:55,100 --> 00:41:04,240
אם אתה בשיחה עם מישהו שלא מבין סינית אז נתנו לדבר עם מישהו שאתה דבר סינית אבל פשוט אמרו לו כבר שאתה מקבל את הסימן הזה.

307
00:41:04,540 --> 00:41:13,420
תשיב את הסימן הזה קוראים לזה תשיב את הסימן הזה והבן אדם בצד השני הסיני הבטוח שמישהו שמדבר איתו מדבר איתו סינית ובעצם שהוא מבין.

308
00:41:13,840 --> 00:41:20,120
אבל מה שבאמת אמרו לבן אדם השני אז כשאתה מבחן הזה וניסו לעבוד עם מבחן טיורינג הזה.

309
00:41:20,780 --> 00:41:25,540
היה בסך הכל לתת פקודות כמו של מחשב של פלט איקס.

310
00:41:25,840 --> 00:41:38,520
כל את וואי וכו' וואז בעצם אתה לגמרי פועל פעולות של מחשב הכי פשוט בעולם אבל אדם שמולך מרגיש שאתה לא בשפה שלו ושאתה איתו באותה שיחה אבל בסך הכל.

311
00:41:38,920 --> 00:41:47,880
נקרא לזה ניסיון קצת מוקדם לעשות איזה שהוא שימוש בסוג של שאת כזה פשוט עם סימנים מוסכמים מראש.

312
00:41:48,020 --> 00:42:02,940
ולא עוד שאתה ממציא ומנסה להגיד לו עוד לעקוף אותו או בונה משפטים באופן עצמאי לגמרי וחדש ובאמת מראה על למידה שהיא הרבה יותר מאשר כשאתה מקבל אקסטנט ווייקס מקבל זה תן דבליו.



313
00:42:04,000 --> 00:42:14,300
כן נכון אבל אבל גם זה לא באמת עונה על השאלה כי אני כמו שאומרים זה שאלה מודע אני לא יודע שאתה קיים אתה לא יודע שאני קיים אני לא יודע שאתה לא בחלום.

314
00:42:14,760 --> 00:42:19,220
ולכן זה מבחינת מי שמקבל את הפלט זה לא באמת משנה.

315
00:42:19,440 --> 00:42:26,900
אם הרובוט מודע למה שהוא אומר או שהוא יכול לעשות בדיוק אותו דבר ברמה מושלמת בלי לדעת.

316
00:42:27,180 --> 00:42:34,900
בלי להבין בכלל ושאילו מודעות אין לי יכולת לדעת אם הרובוטים הג'י פיטי מודע יותר ממך.

317
00:42:35,400 --> 00:42:41,540
מה שכן אני מייחס לך ערך מוסרי נרנטי שמנותק מהיכולת.

318
00:42:41,860 --> 00:42:55,840
מהשיפוט הסובייקטיבי שלי לגבי רמת המודעות שלך כי יש גם בני אדם שלא יודע במצבים שאין להם מודעות או שיש למה הוא נמוכה ואנחנו לא שופטים לא שופטים ערך עכשיו.

319
00:42:56,260 --> 00:43:01,140
המבחן האולטימטיבי של דקארט לדוגמה זה באמת אני חושב משמעי קיים.

320
00:43:01,300 --> 00:43:07,360
אני חושב שזה מאוד מסוכן להפוך את מבחן הערך למבחן סובייקטיבי.

321
00:43:07,860 --> 00:43:13,200
זה עוד יותר מסוכן כמו שאתה לא לא געתם הפך למבחן הערך למבחן סובייקטיבי.

322
00:43:13,420 --> 00:43:19,880
המשמעות של מבחן טיורינג הוא שאם אתה עובר את המבחן הזה יש לך משמעות אם אתה לא עובר את המבחן הזה אין לך משמעות.

323
00:43:20,180 --> 00:43:22,380
אם עכשיו עכשיו כן יעבור.

324
00:43:22,620 --> 00:43:33,300
זה מייצר שאלות פילוסופיות גם מרתקות ומעניינות באמת מה המעמד החוקי של המחשב הזה ואם הוא יעבור מבחן טיורינג של המענדס הכי טוב ב2009 אז אם צריך לתת לו להצביע.

325
00:43:33,300 --> 00:43:41,280
אם לך באות אותו ירץ הכל אלה זה תרגילים לוגיים מאוד מאוד יפים אני חושב שזה מסוכן לייצר מבחן מוסרי שבנוי על.

326
00:43:41,580 --> 00:43:47,220
שיפוץ אובייקטיבי במיוחד שאתה מייצר פה טכנולוגיה.

327
00:43:47,540 --> 00:43:54,680
שם ושגם אם מוססת על הרבה מאוד מהשקפת עולם של המתכנתים שלה כי אם כי אם הערך.

328
00:43:55,000 --> 00:44:02,560
של הבן אדם שאם הערך של משהו סובייקטיבי אז גם המחשב יכול להגיע למסקנה שאין לך ערך כי אתה לא ברמת מודעות שלו.

329
00:44:02,940 --> 00:44:17,200
בעתיד זאת אומרת זה מבחן מוסרי מאוד מאוד פגום שאני חושב שהוא גם וזה הוא מאוד מאוד מסוכן וכאילו הופך למסוכו עלול להפוך גם למסוכן הוא פגום ועלול להפוך למסוכן ומאוד בעייתית.

330
00:44:17,680 --> 00:44:25,620
אבל אפשר לומר שוב אנחנו קצת חוזרים רגע משהו כמו 20 דקות אחורה שאם אנחנו לא נפתח את זה אוהבים שלנו פתחו את זה.

331
00:44:25,760 --> 00:44:35,640
בסוף מגוון ומדובר על משהו שיכול להישמש ככלי מלחמה במלחמת סייבר או בכל מלחמה אחרת בפיתוח של טילים בפיתוח של הגנות כנגד טילים.

332
00:44:36,020 --> 00:44:45,260
אנחנו צריכים את זה כמעט בכל טכנולוגיה שהיא בעיקר טכנולוגיות אזרחיות אבל גם צבאיות.

333
00:44:45,580 --> 00:44:52,180
אנחנו לא יכולים לעצור אז בעצם אם אתה הייתה דיקטטורן האור ליום אחד של מדינת ישראל או של מדינה אחרת.

334
00:44:52,600 --> 00:44:58,580
אין לך שום דרך להשפיע על הכיוון העולמי שהדבר הזה הולך אליו.

335
00:44:58,980 --> 00:45:04,120
אלפנות נכון יש פה מרוץ חימוש שהוא די בלתי ניתן להצירה.

336
00:45:04,460 --> 00:45:15,420
אני חושב שאולי כן אפשר לקבוע שם גבולות גזעת אומרת מתי המחשב נהיה יש פה איזה שהוא פעם זה יש איזה שהוא מחשב שהוא מאוד מאוד חכם הוא לא מחובר למשהו אפשר.

337
00:45:15,680 --> 00:45:22,760
לפחות להגדיר למה מחברים ולמה לא מחברים אפשר לייצר איזה שהוא מינימום רגולציה בסוף באמת מרוץ החימוש הזה.

338
00:45:23,140 --> 00:45:34,480
מונע כל אפשרות מעשית לבלום רוב הסיכויים שזה כמעט בלתי אפשרי להציר אני לא רוצה להגיד בלתי אפשרי כי אני חושב שכן צריך ללחוץ על בלמים מסוימים.

339
00:45:35,100 --> 00:45:44,480
אבל גם פה רואים את הפער בין הפתרונות שמציעים אנשים עם השקפה פרוגרסיבית נקרא לזה גלובליסטית לא במובן.

340
00:45:44,960 --> 00:45:51,220
קונספירטיבי אבל הם באמת פתרון שלהם הוא לייצר תיאום גלובלי של אמנות.

341
00:45:51,600 --> 00:46:02,900
וזה פשוט פשוט באמת כל כך לא ראה לי זה מטריד שאנשים המאוד חכמים האלה בתחום שהם עוסקים בו מאוד מאוד נאיבים בזה ודווקא פה אני כן.

342
00:46:03,500 --> 00:46:18,500
אם נגיד אלון מסק לא חושב שזה אפשרי וחושב שהפתרון זה דווקא דמוקרטיזציה של הטכנולוגיה זאת אומרת אם זה לא יהיה בידיים של מישהו אחד או משהו גלובלי כזה לדף כי הרבה הרבה מאוד גלובליזציה זה שהוא ביזור של הכוח של זה.

343
00:46:18,800 --> 00:46:24,300
אני אפילו אומר יותר מזה אני חושב אני זאת אומרת זה מאוד בוסרי אצלי ואני חושב שצריך לתת לזה את הדעת.

344
00:46:24,540 --> 00:46:34,760
מאוד חשוב לי להרגיש שאני בעיקר שואל שאלות אני אני באתי לפה כדי לשאול שאלות כדי שאנשים יתחילו לחשוב על הדברים האלה כי הדברים האלה חשובים מאוד מתקדמים מהר מאוד.

345
00:46:34,920 --> 00:46:45,100
יש מעט מאוד חשיבה בכלל אני לא מתיימר לתת תשובות רק להגיד חבר תתחילו לשאול את השאלות שמישהו יתחיל לחשוב על הדברים אבל אני כן במחשבה בוסרית.

346
00:46:45,620 --> 00:46:49,620
חושב באיזשהו מקום שדווקא.

347
00:46:50,000 --> 00:46:57,660
כסוג של אותה זה גם וכמובן שזה חוזר להשקפת העולם שלי אבל כסוג של הדמוקרטיזציה של הטכנולוגיה דווקא.

348
00:46:57,880 --> 00:47:04,620
לא דווקא לא שיהיה ממשלה גלובלית עם הכוח הגלובלי הזה ויש לזה גם הרבה מאוד אספקטים אחרים של.

349
00:47:04,880 --> 00:47:10,040
של הטכנולוגיה הזאתי של כלכלה חופשית ומול תכנון ריכוזי כי הרבה מאוד.

350
00:47:10,080 --> 00:47:18,020
הרבה מאוד מאוד הרבה מאוד מהחברה שעוסקים בזה מאוד מפתה למה עכשיו יש לנו את ההזדמנות לתכנון ריכוזי אינטליגנטי שיכול לקחת בחשבון.

351
00:47:18,180 --> 00:47:26,860
באמת את כל השיקולים ולהביא לך פלט של הדבר הכי נכון לכל בן אדם אבל אני חושב שדווקא.

352
00:47:27,320 --> 00:47:36,340
הלאומיות יכולה לתת איזה שהוא קונטרסט אומרים שהוא איי איי שמבוסס דווקא עם הערכים הלאומיים והוא יכול לתת איזה שהוא קונטרלה.

353
00:47:36,520 --> 00:47:41,680
לדחף הזה לגלובליזציה של הטכנולוגיה זו ולריכוז הכוח הזה בידי מעט מאוד אנשים.

354
00:47:42,000 --> 00:47:51,080
אם אנחנו הולכים משלבים את הרעיון של הדמוקרטיזציה של של שזה הפתרון של אילון מה זה בלכאורה הפתרון של איי איי למה שאני קצת מוטרד מזה שהם.

355
00:47:51,360 --> 00:48:04,460
מכי מנסים לשנמך את הסכנות אבל אופן היה נוצר באמת מתוך שהם אמרו זה נוצר כחברה ציבורי כעמותה בשביל זה חברה חברה שבשליטת עמותה ויש שם הבורד.

356
00:48:04,660 --> 00:48:18,200
מאוד מאוד הם אומרים שהם מכירים בסכנה הזאת אבל אני כן חושב שדווקא הם אומרים שהפתרון צריך להיות גלובלי ואני חושב שהם הפתרון צריך להיות שיהיה כמה שיותר איי איי.

357
00:48:18,440 --> 00:48:24,640
אז דווקא לאומיות ודווקא ישראל כמדינה שהיא מצד אחד קטנה כולם מכירים את כולם זאת אומרת.

358
00:48:24,900 --> 00:48:33,140
קשה עכשיו לשנות את מה שיעשו חברה בפעל או אלטו שם שמפתחים את האופן איי איי אבל דווקא ישראל שזה.

359
00:48:33,400 --> 00:48:45,980
שמצד אחד זה מדינה יותר קטנה ויותר נקרא לזה יותר קטנה ומגובשת ומצד שני גם יש לה הרבה הזמים והכל אני חושב שיכול להיות שאנחנו נוכל להביא איזשהו פסורה.

360
00:48:46,360 --> 00:48:57,620
של של כן דמוקרטיזציה וביזור של הכוח הזה ולא שזה יעבור לממשלה גלובלית או מחשב גלובליות או איי גלובליה אחד שיש לו את כל האספקטים של החיים.

361
00:48:57,620 --> 00:49:02,780
אז כחלקת ציון נראה לי שמנצחת תרבות שלך כמובן תהיה לצפות בסרט שליחות קטנית.

362
00:49:03,100 --> 00:49:12,740
קרצים קודם אני יכול אני אגיד מה אני מה הנקודה הכי חשובה שלי ואז כמובן שליחות קטנית אני חושב שאני הייתי.

363
00:49:13,020 --> 00:49:21,800
הייתי חולה ואמא שלי הייתי בכיתה דלת חולה בבית ואמא שלי שמה לי את זה כנראה שהיא לא הריחה עד כמה זה מפחיד והיא הלכה לכמה שעות.

364
00:49:22,100 --> 00:49:25,540
זה באמת היה סרט כל כך מפחיד פחות אז.

365
00:49:25,900 --> 00:49:27,400
ש.

366
00:49:29,700 --> 00:49:42,540
הכתוביות עלו ואני עשבתי על הספה 4 שעות לא יכת לשירותים עד שהיא חזרה אז אבל אם מישהו אני מעריך שזה לראות את זה בגיל קצת יותר מגר זה פחות מפחיד אבל אני לא דווקא בטוח את אומרת.

367
00:49:42,780 --> 00:49:49,220
דווקא כן חשוב לי לומר שלא צריך להיכנס למחשבות האלה כאילו.

368
00:49:49,820 --> 00:49:56,500
הסופה הסקיינט שישתלט עליהם צריך לחשוב על זה ברמה יותר מעשית ופה כן הדגש שלי.

369
00:49:57,180 --> 00:50:05,500
איפה זה נוגע לעולם השמרני ולמה צריך להתחיל לדבר על זה זה בדיוק כמו שפעם.

370
00:50:06,180 --> 00:50:12,360
עריכת דין עין עכשיו מקצוע מאוד מאוד אפור טכנוקרטי.

371
00:50:12,640 --> 00:50:21,360
די לא לא כאילו יותר מאז המהפכה השיפוטית אז לא ברגע שזה הפך למשהו שעוסק בפוליטיקה.

372
00:50:21,760 --> 00:50:32,560
אז גם הימין פתאום מבין שצריך ללכת ללמוד למשפט ללכת ללמוד משפטים להקים מכוני מחקר שיעסקו במשפטים זאת אומרת זה נחשב לנושא מאוד מאוד טכנוקרטי.

373
00:50:33,080 --> 00:50:45,800
וגם פה עד לא מזמן הדבר הזה עסק באמת בזה מה הקשר בין הנדסת מחשבים ותכנות לעולם הפוליטי.

374
00:50:46,560 --> 00:50:49,880
אבל אתה מה שאתגר פטיופ.

375
00:50:50,440 --> 00:51:02,320
מייצר פה עכשיו זה שבאמת הטכנולוגיה שנחשבת לטכנית מאוד תתחיל להשפיע מאוד על החיים הפוליטיים חברתיים שלנו.

376
00:51:02,560 --> 00:51:07,320
אם זה ראית שרדת שתים אבל לא ראית שרדת שינה משפטן אלא מי שחוקרת גוגל.

377
00:51:07,720 --> 00:51:14,120
אז בטוח כמו אבסטנד אבל אני לא זוכר את השם הפרטי הוא התראיין אצל ג'ורדן ביטרסון.

378
00:51:14,320 --> 00:51:20,480
הוא דיבר על זה שבעצם גוגל יכול להטות את הסדר בחירות בצורה מאוד מאוד מאוד קלה על ידי זה שאתה כותב טראמפ.

379
00:51:20,480 --> 00:51:26,880
קבל בעיקר תוצאות בצעות חיפוש שליליות וזה צורף במוח שלך טראמפ שלילי.

380
00:51:27,200 --> 00:51:32,700
וכנראה לגבי הילר קלינטון ואם הוא עושה זה לגבי לא אנשים שבקצוות שרואים טראמפ ישר שלילי.

381
00:51:32,880 --> 00:51:36,740
אז אני לא שמח על גוגל כי להם הוא יציג טראמפ חיובי.

382
00:51:37,120 --> 00:51:46,560
כבר מכיר אותם מה הספקטים של זה הם אינסופים קודם כל טוויטר פייז מה שלומסק עכשיו חושף על זה שטוויטר באמת.

383
00:51:46,560 --> 00:51:53,840
לא לחלוטות אנושיות ברמת האלגוריתמים גם אם אתה עושה אפילו אתה יעשה במיוחד עכשיו שחורים שאתה מוכן.

384
00:51:54,140 --> 00:52:02,120
שהפוליטיקה מאוד מפוצלת ואילקסקס מספיק קטע של 5% של האלגוריתם טובה צד שני ואתה יכול לטות בחירות עכשיו זה יותר מזה.

385
00:52:02,160 --> 00:52:08,580
שקל שמורי בדיוק כתבתי מקראתי ממש שיתף ג'ונתן היידאט שאני מאוד ממליץ לקרוא כל מה שהוא כותב.

386
00:52:08,760 --> 00:52:16,240
דבר ובאמת מסביר איך שכל מה שאנחנו רואים עכשיו וגם בישראל ובכל העולם הדמוקרטי שהפוליטיקה נהיית הרבה יותר קיצונית וזה.

387
00:52:16,400 --> 00:52:19,000
זה נובע הרבה מאוד בגלל הרשתות החברתיות.

388
00:52:19,240 --> 00:52:27,500
זה ממש המאמר הזה מסביר שטיק טוק זה סוג של מלחמה ביולוגית של הסינים נגד המערב ביולוגית ביולוגית.



389
00:52:27,880 --> 00:52:36,180
שוב זה כותב דרמטית אבל הוא מסביר שבאמת זה מייצר את ההתמכות של באמת הלייקים וכל זה שזה ידוע שזה עושה התמכות במוח.

390
00:52:36,420 --> 00:52:39,540
כימיקל הזה שכל הייק גורם לך.

391
00:52:39,540 --> 00:52:47,840
דופמין נכון סליחה דופמין אבל זה פשוט טכנולוגיה שממש מתמתמת.

392
00:52:47,940 --> 00:52:55,940
בזמן שהטיק טוק של הסינים הם רואים שם סרטונים על ניגון בפסנתר ומתמטיקה הצעירים של המערב.

393
00:52:56,100 --> 00:53:06,620
עושים סרטונים שם שותים מקשית מהסלע זאת אומרת זה זה מתמתם את הדור הצעיר של המערב הסינים מייצרים את האת התואר הזה יכול להשפיע הרבה מאוד דברים.

394
00:53:07,540 --> 00:53:18,120
כדי לסכם את העניין למה זה חשוב כי באמת הנושא הזה עד לא מזמן נחשב לנושא טכני בדיוק כמו שלשם השוואה המשפטי נחשב למשהו טכני שלא צריך להיכנס.

395
00:53:18,860 --> 00:53:30,080
וחשוב לי להבהיר לה על הצד השמרני של המפה שהדבר הזה יהיה לו השפעות מרחיקות לכת על כל אספקטים של החיים גם אם אנחנו נלך על תחזית מאוד מתונה של זה.

396
00:53:30,420 --> 00:53:33,160
בעיקר באמת במה שקשור להטיית מידע.

397
00:53:33,920 --> 00:53:44,120
וכרגע אנחנו רואים למרות שהגפט אתה רואה את הפער העצום נגיד בטוויטר ששם הזה האינטליגנציה של שלה של ההנהגה הפוליטיקה.

398
00:53:44,220 --> 00:53:59,080
אפס התייחסות בכלל התופעה הזאתי שמי שמבין בטכנולוגיה אז אם פעם היה פער בין המשפטנים לאנשים הפשוטים שהיה צריך לפתור הפער בין המתכנתים בפעל ועל זה שמתכנתים את זה עם הפתרונות שלהם ואידיאולוגיה שלהם לבין.

399
00:53:59,720 --> 00:54:11,000
לבין מה שהצד לבין מה שהציבור עושה בקבלי החלטות עושים אני לא בטוח שיש בכלל מכל חברי הכנסת אפילו אחד שנתן את דעתו לנושא הזה ולכן.

400
00:54:11,920 --> 00:54:20,260
צריך להבין שצריך להתחיל לעסוק בזה ובאמת כמו שאנשים הלכו להתמחות במשפטים כדי להשפיע על החברה כי כי זה הפך לנושא פוליטי.

401
00:54:20,540 --> 00:54:25,600
אז מה שחוצים לפתח עכשיו זה אקטיביסטים של אלגוריתמים.

402
00:54:25,840 --> 00:54:33,400
בגלל שהאמין הוא כזה שמרנו בדרך כלל נאבקת המלחמות של האתמול של השלישון מחר.

403
00:54:33,400 --> 00:54:38,640
זה טובים לתייס אחר כך טובים לתקשורת עכשיו זה הטובים לאי.

404
00:54:38,640 --> 00:54:46,620
הטובים לנדסת בדיוק הטובים לאי טובים לנדסת מחשב עם איזה שהוא צריך לייצר שהוא אינטרדיסציפלנריות של באמת חשיבה.

405
00:54:46,880 --> 00:54:53,220
מדינית פילוסופית אבל אם יכולת לפחות הבנה של הכלים האלה כי הפער הוא באמת עצום היום.

406
00:54:53,600 --> 00:55:03,620
אין אף שעה חבר הכנסת שבכלל יכול להתחיל לתת את הדעת ויש אנשים בפעל על זה שמדברים כבר על בינה אינסופית ועל סופר אינטליג'נס וכל הדברים האלה.

407
00:55:03,760 --> 00:55:09,700
בטח פרז חייבים להתחיל לסגור ולהתחיל עכשיו וכבר עכשיו זה מאוחר ולכן היה חשוב לי לבוא לפה.

408
00:55:10,060 --> 00:55:16,200
כדי שבאמת נתחיל להתעורר עכשיו כדי שאולי נוכל להתחיל לנסות לתת תשובות גם לשאלות.

409
00:55:16,880 --> 00:55:25,620
אז באמת אנחנו נותנים פה דיסקלמר לא אתה ולא אני מומחים לאיי או לאינטליגנציה מלאכותית אין כאן ייעוץ משפטי.

410
00:55:25,620 --> 00:55:31,760
אפילו אפילו ששנינו חדים ואנחנו ממש מזמינים כל מי שכן מומחה לנושא הזה.

411
00:55:31,940 --> 00:55:36,660
אולי אפילו להזמין את חברי רוי עוזביץ שהוא אחת ההתמחויות שלו זה איי.

412
00:55:36,960 --> 00:55:47,160
לתת את דעתו על הנושא כי הוא גם נותן הרבה הרצאות על זה וגם הוא קשור לפילוסופיה פוליטית והוא מבין בכל התחומים האלה אז נראה לי שיש לנו עוד רעיון בקנה.

413
00:55:47,660 --> 00:55:51,060
תודה רבה יונתן יעקבוביץ' תנוג.

414
00:55:53,140 --> 00:55:56,640
על המשמעות פודקאסט פילוסופי פוליטי.