בינה מלאכותית. חלק שני: הכחדה או אלמוות?

60
בינה מלאכותית. חלק שני: הכחדה או אלמוות?


הנה החלק השני של הכתבה מהסדרה "רגע, איך כל זה יכול להיות אמיתי, למה עדיין לא מדברים על זה בכל פינה". בסדרה הקודמת נודע כי פיצוץ של בינה זוחל בהדרגה לאנשי כדור הארץ, הוא מנסה להתפתח מבינה אנושית ממוקדת צר לאוניברסלית ולבסוף, אינטליגנציה על מלאכותית.

"אולי יש לפנינו בעיה קשה ביותר, ולא ידוע כמה זמן מוקצב לפתרון שלה, אבל עתיד האנושות עשוי להיות תלוי בפתרונה". - ניק בוסטרום.


החלק הראשון של המאמר התחיל בתמימות מספיק. דנו בבינה מלאכותית ממוקדת צר (AI, שמתמחה בפתרון משימה אחת ספציפית כמו קביעת מסלולים או משחק שח), בעולם שלנו יש הרבה כאלה. אחר כך ניתחנו מדוע כל כך קשה לגדל בינה מלאכותית לשימוש כללי (GAI, או AI, שבמונחים של יכולות אינטלקטואליות ניתן להשוות עם אדם בפתרון כל בעיה) מ-AII. אנו מסיקים שהקצב האקספוננציאלי של ההתקדמות הטכנולוגית מרמז ש-AGI עשוי להגיע בקרוב. בסופו של דבר, החלטנו שברגע שהמכונות הגיעו לרמת האינטליגנציה האנושית, הדברים הבאים עלולים לקרות מיד:






כרגיל, אנחנו מסתכלים על המסך, לא מאמינים שבינת-על מלאכותית (AI, שהיא הרבה יותר חכמה מכל אדם) יכולה להופיע כבר בחיינו, ובוחרים את הרגשות שישקפו בצורה הטובה ביותר את דעתנו בנושא זה.

לפני שנעמיק בפרטים הספציפיים של ASI, בואו נזכיר לעצמנו מה המשמעות של מכונה להיות סופר אינטליגנטית.

ההבדל העיקרי טמון בין אינטליגנציה על מהירה לבין מודיעין על איכותי. לעתים קרובות הדבר הראשון שעולה בראש כשחושבים על מחשב סופר-אינטליגנט הוא שהוא יכול לחשוב הרבה יותר מהר מאדם - מיליוני פעמים מהר יותר, ותוך חמש דקות להבין מה ייקח לאדם לעשות עשר שנים. ("אני יודע קונג פו!")

נשמע מרשים, וה-ASI באמת צריך לחשוב מהר יותר מכל אחד מהאנשים - אבל התכונה העיקרית המפרידה תהיה איכות האינטליגנציה שלו, שהיא אחרת לגמרי. בני אדם הם הרבה יותר חכמים מקופים, לא בגלל שהם חושבים מהר יותר, אלא בגלל שהמוח האנושי מכיל מספר מודולים קוגניטיביים גאוניים שמבצעים ייצוגים לשוניים מורכבים, תכנון ארוך טווח, חשיבה מופשטת, שקופים אינם מסוגלים להם. אם תבצע אוברclock מוחו של קוף אלף פעמים, הוא לא יהפוך לחכם מאיתנו - גם בעוד עשר שנים הוא לא יוכל להרכיב את המעצב לפי ההוראות, מה שייקח לאדם כמה שעות מקסימום. יש דברים שקוף לעולם לא ילמד, לא משנה כמה שעות הוא משקיע או כמה מהר המוח שלו עובד.

בנוסף, הקוף לא יודע להיות אנושי, כי המוח שלו פשוט לא מסוגל להבין את קיומם של עולמות אחרים - הקוף אולי יודע מה זה אדם ומה זה גורד שחקים, אבל לעולם לא יבין שגורד שחקים היה שנבנו על ידי אנשים. בעולמה הכל שייך לטבע, והמקוק לא רק שאינו יכול לבנות גורד שחקים, אלא גם מבין שכל אחד יכול לבנות אותו בכלל. וזו תוצאה של הבדל קטן באיכות המודיעין.

בתכנית האינטליגנציה הכללית שאנו מדברים עליה, או פשוט בסטנדרטים של יצורים ביולוגיים, ההבדל באיכות האינטליגנציה של האדם והקוף הוא זעיר. במאמר הקודם, הצבנו קוגניציה ביולוגית על סולם:



כדי להבין כמה רצינית תהיה מכונה סופר-אינטליגנטית, הצב אותה שני שלבים גבוהים יותר מאדם בסולם הזה. המכונה הזו אולי קצת סופר אינטליגנטית, אבל העליונות שלה על היכולות הקוגניטיביות שלנו תהיה זהה לשלנו על קופים. וכמו ששימפנזה לעולם לא יכול להבין שאפשר לבנות גורד שחקים, אולי לעולם לא נבין מה תבין מכונה בכמה צעדים גבוהים יותר, גם אם המכונה תנסה להסביר לנו את זה. וזה רק כמה צעדים. מכונה חכמה יותר תראה בנו נמלים - היא תלמד אותנו במשך שנים את הדברים הפשוטים ביותר מעמדה, והניסיונות הללו יהיו חסרי סיכוי לחלוטין.

סוג מודיעין העל שעליו נדבר היום נמצא הרבה מעבר לסולם הזה. זהו פיצוץ של אינטליגנציה - כאשר ככל שהמכונה הופכת להיות חכמה יותר, כך היא יכולה להגדיל את האינטליגנציה של עצמה מהר יותר, ולהגדיל בהדרגה את המומנטום. אולי ייקח שנים עד שמכונה כזו תעלה על השימפנזים באינטליגנציה, אבל אולי כמה שעות לנצח אותנו בצעד או שניים. מנקודה זו ואילך, המכונית כבר יכולה לקפוץ מעל ארבעה מדרגות בכל שנייה. לכן אנחנו צריכים להבין את זה מהר מאוד אחרי הראשון חדשות שהמכונה הגיעה לרמת האינטליגנציה האנושית, אנו עשויים להתמודד עם המציאות של קיום משותף על כדור הארץ עם משהו שיהיה הרבה יותר גבוה מאיתנו בסולם הזה (אולי גבוה פי מיליוני):



ומכיוון שקבענו שזה חסר תועלת לחלוטין לנסות להבין את כוחה של מכונה שנמצאת רק שתי דרגות מעלינו, בואו נקבע אחת ולתמיד שאין דרך להבין מה ה-ASI יעשה ומה ההשלכות של זה יהיה בשבילנו. מי שטוען אחרת פשוט לא מבין מה המשמעות של אינטליגנציה על.

האבולוציה פיתחה לאט ובהדרגה את המוח הביולוגי במשך מאות מיליוני שנים, ואם בני האדם יוצרים מכונה סופר אינטליגנטית, במובנים מסוימים נתעלה על האבולוציה. או שזה יהיה חלק מהאבולוציה - אולי הדרך שבה אבולוציה עובדת היא שהאינטליגנציה מתפתחת בהדרגה עד שהיא מגיעה לנקודת מפנה המבשרת עתיד חדש לכל היצורים החיים:



מסיבות שנדון בהן בהמשך, חלק גדול מהקהילה המדעית סבור שהשאלה היא לא אם נגיע לנקודת המפנה הזו, אלא מתי.

איפה נהיה אחרי זה?

אני לא חושב שמישהו בעולם הזה, אני או אתה, יוכל לדעת מה יקרה כשנגיע לנקודת המפנה. הפילוסוף של אוקספורד ותיאורטיקן הבינה המלאכותית המוביל ניק בוסטרום מאמין שאנחנו יכולים לרכז את כל התוצאות האפשריות לשתי קטגוריות רחבות.

ראשית, מסתכל על סיפור, אנו יודעים את הדברים הבאים על החיים: מינים מופיעים, קיימים לזמן מסוים, ואז נופלים בהכרח מהיומן של איזון החיים ומתים.



"כל המינים מתים" היה כלל אמין בהיסטוריה כמו "כל בני האדם מתים מתישהו". 99,9% מהמינים נפלו מבול העץ, וברור שאם מין ישהה ​​על בול עץ זה זמן רב מדי, משב רוח טבעי או אסטרואיד פתאומי יהפכו את בול העץ הזה. בוסטרום קורא להכחדה מצב מושך, מקום שבו כל המינים מתאזנים כדי להימנע מנפילה למקום שממנו עוד לא חזר מינים.

ולמרות שרוב המדענים מכירים בכך של-ASI תהיה את היכולת להכריע את בני האדם להכחדה, רבים מאמינים גם כי רתימת הכוח של ה-ASI תאפשר לאנשים (ולמין בכללותו) להשיג את המצב השני של המושך, אלמוות המינים . בוסטרום מאמין שהאלמוות של מין הוא גורם משיכה בדיוק כמו הכחדה של מינים, כלומר, אם נגיע לנקודה הזו, נדון לקיום נצחי. לפיכך, גם אם כל המינים עד היום נפלו מהמקל הזה לבריכת ההכחדה, בוסטרום מאמין שלבול עץ יש שני צדדים, ופשוט לא הייתה אינטליגנציה כזו בכדור הארץ שתבין איך ליפול לצד השני.



אם בוסטרום ואחרים צודקים, ומכל המידע העומד לרשותנו ייתכן מאוד שהם צודקים, עלינו לקבל שתי עובדות מזעזעות מאוד:

הופעתה של ASI לראשונה בהיסטוריה תפתח את האפשרות למין להשיג אלמוות ולצאת ממעגל ההכחדה הקטלני.
להופעת ASI תהיה השפעה כל כך עצומה בצורה בלתי נתפסת, שסביר להניח שהיא תדחוף את האנושות מהבול ​​הזה לכיוון זה או אחר.
בהחלט ייתכן שכשהאבולוציה מגיעה לנקודת מפנה כזו, היא תמיד שמה קץ ליחסים של אנשים עם זרימת החיים ויוצרת עולם חדש, עם או בלי אנשים.

זה מוביל לשאלה מעניינת אחת שרק עצלן לא ישאל: מתי נגיע לנקודת המפנה הזו והיכן היא תציב אותנו? אף אחד בעולם לא יודע את התשובה לשאלה הכפולה הזו, אבל כל כך הרבה אנשים חכמים מנסים להבין את זה כבר עשרות שנים. בהמשך המאמר נגלה למה הם הגיעו.

* * *


נתחיל בחלק הראשון של שאלה זו: מתי עלינו להגיע לנקודת המפנה? במילים אחרות: כמה זמן נשאר עד שהמכונה הראשונה תגיע למודיעין-על?

הדעות משתנות ממקרה למקרה. רבים, כולל פרופסור ורנור וינג', המדען בן גורצל, מייסד שותף של Sun Microsystems ביל ג'וי והעתידן ריי קורצווייל, הסכימו עם מומחה למידת מכונה ג'רמי הווארד כשהציג את הגרף הבא ב-TED Talk:



האנשים האלה חולקים את הדעה ש-ASI מגיע בקרוב - הצמיחה האקספוננציאלית הזו, שנראית לנו היום איטית, ממש תתפוצץ בעשורים הקרובים.

אחרים, כמו מייסד מיקרוסופט פול אלן, פסיכולוג המחקר גארי מרקוס, מומחה המחשבים ארנסט דייויס ויזם הטכנולוגיה מיץ' קאפור, חושבים שהוגים כמו קורצווייל מזלזלים ברצינות בגודל הבעיה וחושבים שאנחנו לא כל כך קרובים לטיפ נְקוּדָה.

מחנה קורצווייל מנגד כי הערכת החסר היחידה שמתרחשת היא התעלמות מצמיחה אקספוננציאלית, וניתן להשוות את הספקים לאלה שהסתכלו על האינטרנט הצומח לאט ב-1985 וטענו שלא תהיה לו השפעה על העולם בעתיד הקרוב .

ה"ספקים" עשויים להעיד על כך שלקידמה קשה יותר לעשות כל צעד כשזה מגיע לאינטליגנציה אקספוננציאלית, המבטלת את האופי האקספוננציאלי הטיפוסי של הקידמה הטכנולוגית. וכן הלאה.

המחנה השלישי, הכולל את ניק בוסטרום, חולק על הראשון והאחרון, בטענה כי א) כל זה בהחלט יכול לקרות בעתיד הקרוב; וב) אין ערובה שזה יקרה בכלל או ייקח יותר זמן.

אחרים, כמו הפילוסוף הוברט דרייפוס, מאמינים שכל שלוש הקבוצות הללו מאמינות בתמימות שתהיה נקודת מפנה בכלל, ושסביר להניח שלעולם לא נגיע ל-ASI.

מה קורה כשאנו מוסיפים את כל הדעות הללו יחד?

ב-2013, ערך בוסטרום סקר שבו ראיין מאות מומחי בינה מלאכותית במהלך סדרת כנסים בנושא הבא: "מה תהיה התחזית שלך להשגת AGI ברמת האדם?" וביקש שנה אופטימית (בה יהיה לנו AGI עם סיכוי של 10%), ניחוש ריאלי (שנה שבה יהיה לנו סיכוי של 50% לקבל AGI), וניחוש חזק (השנה המוקדמת ביותר שבה AGI יופיע עם הסתברות של 90 - אחוז). להלן התוצאות:

* שנה אופטימית ממוצעת (10%): 2022
* שנה ריאלית ממוצעת (50%): 2040
* שנה פסימית ממוצעת (90%): 2075

המשיבים הממוצעים מאמינים שבעוד 25 שנה יהיה לנו סיכוי גבוה יותר לקבל AII מאשר לא. סיכוי של 90 אחוז לקבל AIS עד 2075 אומר שאם אתה עדיין צעיר למדי עכשיו, סביר להניח שזה יקרה במהלך חייך.

מחקר נפרד אחרון מאת ג'יימס באראט (מחבר הספר עטור השבחים והטוב מאוד ההמצאה האחרונה שלנו, קטע מתוך הצגתי לתשומת לב הקוראים Hi-News.ru) ובן הרצל בכנס AGI השנתי, ועידת AGI, רק הראו את דעותיהם של אנשים על השנה שבה נגיע ל-AGI: עד 2030, 2050, 2100, מאוחר יותר או לעולם לא. להלן התוצאות:

* 2030: 42% מהמשיבים
* 2050: 25%
* 2100: 20%
אחרי 2100: 10%
אף פעם: 2%
בדומה לתוצאות של בוסטרום. בסקר Barratt, יותר משני שלישים מהנשאלים מאמינים ש-AGI תהיה כאן עד 2050, ופחות ממחצית מאמינים ש-AGI תהיה כאן ב-15 השנים הבאות. זה גם בולט שרק 2% מהנסקרים כלל לא רואים את AGI בעתידנו.

אבל AGI היא לא משנה משחק כמו ASI. מתי, לפי מומחים, יהיה לנו ASI?

בוסטרום שאל מומחים מתי נגיע ל-ASI: א) שנתיים לאחר הגעה ל-AIS (כלומר, כמעט מיד בשל פיצוץ של מודיעין); ב) לאחר 30 שנה. תוצאות?

הדעה הממוצעת הייתה שמעבר מהיר מ-AGI ל-ASI יתרחש עם סיכוי של 10 אחוז, אבל בעוד 30 שנה או פחות זה יקרה עם סיכוי של 75 אחוז.

מהנתונים האלה, אנחנו לא יודעים איזה תאריך יתנו המשיבים כסיכוי של 50 אחוז ל-ASI, אבל בהתבסס על שתי התשובות למעלה, נניח שזה 20 שנה. כלומר, המומחים המובילים בעולם בתחום ה-AI מאמינים שנקודת המפנה תגיע ב-2060 (AII יופיע ב-2040 + ייקח 20 שנה לעבור מ-AGI ל-ASI).



כמובן, כל הנתונים הסטטיסטיים לעיל הם ספקולטיביים ופשוט מייצגים את דעותיהם של מומחי AI, אבל הם גם מצביעים על כך שרוב האנשים המודאגים מסכימים שעד 2060 ASI צפוי להגיע. רק 45 שנים אחרי.

נעבור לשאלה השנייה. כאשר נגיע לנקודת המפנה, באיזה צד של הבחירה הקטלנית נקבע?

למודיעין העל יהיה הכוח החזק ביותר, והשאלה הקריטית עבורנו תהיה הבאה:

מי או מה ישלוט בכוח הזה ומה תהיה המוטיבציה שלהם?

התשובה לשאלה זו תהיה תלויה בשאלה אם ה-ASI יקבל פיתוח חזק להפליא, פיתוח מפחיד לאין שיעור, או משהו באמצע.

כמובן שקהילת המומחים מנסה לענות גם על שאלות אלו. הסקר של Bostrom ניתח את הסבירות להשלכות אפשריות של השפעת AGI על האנושות, ומצא שעם סיכוי של 52 אחוז הכל ילך טוב מאוד ועם סיכוי של 31 אחוז הכל ילך רע או רע מאוד. הסקר המצורף בסוף החלק הקודם של נושא זה, שנערך ביניכם, קוראים יקרים של היי-ניוז, הראה בערך את אותן תוצאות. לתוצאה ניטרלית יחסית, ההסתברות הייתה רק 17%. במילים אחרות, כולנו חושבים שההופעה של AGI תהיה עניין גדול. כדאי גם לציין שסקר זה עוסק בהופעתה של AGI – במקרה של ASI אחוז הנייטרליות יהיה נמוך יותר.

לפני שנעמיק עוד יותר בצדדים הטובים והרעים של השאלה, בואו נשלב את שני חלקי השאלה – "מתי זה יקרה?" ו"זה טוב או רע?" לטבלה המכסה את דעותיהם של רוב המומחים.



עוד דקה נדבר על המחנה הראשי, אבל תחילה החליטו על עמדתכם. סביר להניח שאתה נמצא באותו מקום בו אני נמצא, לפני שהתחלתי לעסוק בנושא זה. ישנן מספר סיבות מדוע אנשים לא חושבים על הנושא הזה בכלל:

* כפי שהוזכר בחלק הראשון, הסרטים בלבלו ברצינות אנשים ועובדות על ידי הצגת תרחישים לא מציאותיים עם בינה מלאכותית, מה שהוביל לעובדה שאסור לנו לקחת AI ברצינות בכלל. ג'יימס באראט השווה את המצב הזה לעובדה שהמרכזים לבקרת מחלות הוציאו אזהרה רצינית לגבי ערפדים בעתידנו.

* בגלל הטיות קוגניטיביות כביכול, קשה לנו מאוד להאמין במציאות של משהו עד שיש לנו ראיות. אפשר לדמיין בבטחה את מדעני המחשב של 1988 דנים בקביעות בהשלכות מרחיקות הלכת של האינטרנט ומה זה יכול להפוך, אבל אנשים בקושי האמינו שזה ישנה את חייהם עד שזה באמת קרה. רק שמחשבים לא יכלו לעשות את זה ב-1988, ואנשים פשוט הסתכלו על המחשבים שלהם וחשבו, "באמת? זה מה שישנה את העולם?" הדמיון שלהם הוגבל במה שלמדו מניסיון אישי, הם ידעו מה זה מחשב, וקשה היה לדמיין למה המחשב יוכל בעתיד. אותו דבר קורה עכשיו עם AI. שמענו שזה יהפוך לדבר רציני, אבל מכיוון שעדיין לא נתקלנו בזה פנים אל פנים ובכלל אנחנו רואים ביטויים חלשים למדי של AI בעולם המודרני שלנו, די קשה לנו להאמין שזה ישתנה באופן דרסטי חיינו. לדעות קדומות אלה מתנגדים מומחים רבים מכל המחנות, כמו גם אנשים מתעניינים: הם מנסים למשוך את תשומת הלב שלנו דרך הרעש של אגוצנטריות קולקטיבית יומיומית.

* גם אם האמנו לכל זה, כמה פעמים חשבתם היום על העובדה שתבלו את שארית הנצח באין? קצת, מסכים. גם אם העובדה הזו חשובה הרבה יותר מכל מה שאתה עושה כל יום. הסיבה לכך היא שהמוח שלנו נוטה להיות מרוכז בדברים הקטנים והיומיומיים, לא משנה כמה מטורף המצב לטווח הארוך בו אנו נמצאים. זה פשוט כמו שאנחנו.
אחת ממטרות המאמר הזה היא להוציא אתכם ממחנה "אני אוהב לחשוב על דברים אחרים" ולהכניס אתכם למחנה המומחים, גם אם אתם רק עומדים בצומת בין שני הקווים המקווקוים בכיכר. למעלה, מתלבט לחלוטין.

במהלך המחקר מתברר שדעותיהם של רוב האנשים נעות במהירות לעבר "המחנה הראשי", ושלושה רבעים מהמומחים מתחלקים לשני מחנות משנה במחנה הראשי.



נבקר בשני המחנות הללו במלואם. בואו נתחיל בכיף.

מדוע העתיד יכול להיות החלום הגדול ביותר שלנו?

בעודנו חוקרים את עולם הבינה המלאכותית, אנו מוצאים מספר מפתיע של אנשים באזור הנוחות שלהם. האנשים בכיכר הימנית העליונה רוחשים מהתרגשות. הם מאמינים שניפול על הצד הטוב של הקורה, וגם מאמינים שבהכרח נגיע לזה. עבורם, העתיד הוא רק הטוב ביותר שאפשר לחלום עליו.

הנקודה שמבדילה את האנשים האלה מהוגים אחרים היא לא שהם רוצים להיות בצד המאושר, אלא שהם בטוחים שאנחנו מחכים לזה.

הביטחון הזה בא מתוך מחלוקת. המבקרים מאמינים שזה נובע מהתרגשות מסנוורת המאפילה על השליליות הפוטנציאליות. אבל התומכים אומרים שתחזיות קודרות הן תמיד תמימות; הטכנולוגיה ממשיכה ותמיד תעזור לנו יותר מאשר להזיק לנו.

אתם חופשיים לבחור כל אחת מהדעות הללו, אבל שימו בצד את הספקנות שלכם והסתכלו היטב על הצד המשמח של קרן האיזון, תוך ניסיון לקבל את העובדה שכל מה שקראתם עליו אולי כבר קרה. אם הייתם מראים לציידים-לקטים את עולם הנוחות, הטכנולוגיה והשפע האינסופי שלנו, זה היה נראה להם כמו פנטזיה קסומה – ואנחנו מתנהגים בצניעות מספיק, לא מסוגלים להודות שאותו טרנספורמציה בלתי מובנת מחכה לנו בעתיד.

ניק בוסטרום מתאר שלושה דרכים שמערכת בינה מלאכותית סופר אינטליגנטית יכולה לקחת:

* אורקל שיכול לענות על כל שאלה מוגדרת היטב, כולל שאלות קשות שבני אדם לא יכולים לענות עליהן, כמו "איך מייעלים מנוע רכב?" גוגל היא סוג פרימיטיבי של "אורקל".

* ג'יני שיבצע כל פקודה ברמה גבוהה - משתמש בהרכב מולקולרי כדי ליצור גרסה חדשה ויעילה יותר של מנוע מכונית - ומחכה לפקודה הבאה.

* ריבון שתהיה לו גישה רחבה ויכולת לתפקד בחופשיות בעולם, לקבל החלטות משלו ולשפר את התהליך. הוא ימציא דרך תחבורה פרטית זולה, מהירה ובטוחה יותר מהמכונית.

השאלות והמטלות הללו, שנראות לנו קשות, ייראו למערכת העל-אינטליגנטית כאילו מישהו ביקש לשפר את המצב "נפל לי עיפרון מהשולחן", שבו פשוט תרים אותו ותחזיר אותו.

אליעזר יודקובסקי, מומחה אמריקאי לבינה מלאכותית, ציין היטב:

"אין בעיות קשות, רק בעיות שקשות לרמה מסוימת של אינטליגנציה. עולים מדרגה (מבחינת אינטליגנציה), וחלק מהבעיות עוברות פתאום מהקטגוריה של "בלתי אפשרי" למחנה של "ברור". צעד אחד למעלה, וכולם יהיו ברורים".


יש הרבה מדענים, ממציאים ויזמים חסרי סבלנות שבחרו אזור של נוחות בטוחה על שולחננו, אבל בשביל ללכת לטובים ביותר בעולמות הטובים מכל האפשריים הזה, אנחנו צריכים רק מדריך אחד.

ריי קורצווייל הוא אמביוולנטי. יש כאלה שמעריצים את רעיונותיו, יש שמתעבים. חלקם נשארים באמצע - דאגלס הופשטטר, שדן ברעיונות של ספריו של קורצווייל, ציין ברהיטות ש"זה כאילו אתה לוקח הרבה אוכל טוב וקצת כלבים, ואז מערבב הכל כך שאתה לא יכול לדעת מה טוב ומה רע."

בין אם אתה אוהב את הרעיונות שלו או לא, אי אפשר לעבור לידם בלי צל של עניין. הוא התחיל להמציא דברים כנער, ובשנים מאוחרות יותר המציא כמה דברים חשובים, כולל הסורק השטוח הראשון, סורק הטקסט לדיבור הראשון, הסינתיסייזר המוכר של קורצווייל (הפסנתר החשמלי האמיתי הראשון), והראשון. מזהה דיבור מצליח מסחרית. הוא גם מחברם של חמישה ספרים עטורי שבחים. קורצווייל מוערך בשל התחזיות הנועזות שלו, והרקורד שלו טוב למדי - בסוף שנות ה-80, כשהאינטרנט עדיין היה בחיתוליו, הוא הציע שבשנות ה-2000 הרשת תהפוך לתופעה עולמית. הוול סטריט ג'ורנל כינה את קורצווייל "גאון חסר מנוחה", פורבס "מכונת חשיבה גלובלית", Inc. מגזין - "היורש החוקי של אדיסון", ביל גייטס - "הטוב מבין אלה שמנבאים את עתיד הבינה המלאכותית". בשנת 2012, מייסד-שותף של גוגל, לארי פייג', שכר את קורצווייל להיות CTO. ב-2011 הוא ייסד את אוניברסיטת Singularity, בהנחיית נאס"א ובחסות חלקית של גוגל.

הביוגרפיה שלו חשובה. כשקורצווייל מדבר על חזון העתיד שלו, זה נשמע כמו אדם משוגע, אבל הדבר המטורף באמת הוא שהוא רחוק מלהיות משוגע - הוא אדם חכם, משכיל ושפוי להפליא. אתה אולי חושב שהוא טועה בתחזיותיו, אבל הוא לא טיפש. תחזיותיו של קורצווייל משותפות למומחים רבים של "אזור הנוחות", פיטר דיאמנדיס ובן הרצל. הנה מה שהולך לקרות, לדעתו.

ציר זמן

קורצווייל מאמין שהמחשבים יגיעו לרמה של בינה כללית מלאכותית (AGI) עד 2029, ועד 2045 תהיה לנו לא רק בינה-על מלאכותית, אלא גם עולם חדש לגמרי - תקופת הסינגולריות כביכול. ציר הזמן שלו בינה מלאכותית עדיין נחשב מוגזם להחריד, אך במהלך 15 השנים האחרונות, הפיתוח המהיר של מערכות בינה מלאכותית צרה (AI) גרם למומחים רבים לערוק לקורצווייל. התחזיות שלו עדיין שאפתניות יותר מסקר בוסטרום (ARI עד 2040, ASI עד 2060), אבל לא בהרבה.

לדברי קורצווייל, שלוש מהפכות בו-זמנית בביוטכנולוגיה, ננוטכנולוגיה וחשוב מכך, AI מובילות לייחודיות של 2045. אבל לפני שנמשיך - והננוטכנולוגיה עוקבת באופן בלתי נפרד אחר בינה מלאכותית - בואו ניקח דקה לננוטכנולוגיה.



כמה מילים על ננוטכנולוגיה

ננוטכנולוגיה היא מה שאנו מתייחסים אליו בדרך כלל כטכנולוגיות העוסקות במניפולציה של חומר בטווח של 1-100 ננומטר. ננומטר הוא מיליארדית המטר, או מיליונית המילימטר; בתוך 1-100 ננומטר, אתה יכול להתאים וירוסים (100 ננומטר בקוטר), DNA (ברוחב 10 ננומטר), מולקולות המוגלובין (5 ננומטר), גלוקוז (1 ננומטר) ועוד. אם הננוטכנולוגיה תהפוך אי פעם לשלנו, השלב הבא יהיה מניפולציה של אטומים בודדים, שקטנים רק בסדר גודל אחד (~.1 ננומטר).

כדי להבין היכן אנשים נתקלים בבעיות בניסיון לתמרן חומר בקנה מידה כזה, בואו נקדם קדימה לקנה מידה גדול יותר. תחנת החלל הבינלאומית ממוקמת 481 קילומטרים מעל כדור הארץ. אם בני אדם היו ענקים ופוגעים ב-ISS בראשם, הם היו גדולים פי 250 ממה שהם עכשיו. אם מגדילים משהו מ-000 ל-1 ננומטר בגורם של 100, מקבלים 250 סנטימטרים. ננוטכנולוגיה היא המקבילה לאדם גבוה כמו ה-ISS, המנסה לשלוט בדברים בגודל של גרגר חול או גלגל עין. כדי להגיע לשלב הבא - שליטה באטומים בודדים - הענק יצטרך למקם בזהירות עצמים בקוטר של 000/2,5 מילימטר. אנשים רגילים יצטרכו מיקרוסקופ כדי לראות אותם.

ריצ'רד פיינמן דיבר לראשונה על ננוטכנולוגיה ב-1959. ואז הוא אמר: "עקרונות הפיזיקה, עד כמה שאני יכול לדעת, אינם מדברים נגד האפשרות לשלוט בדברים אטום אחר אטום. באופן עקרוני, פיזיקאי יכול לסנתז כל חומר כימי שנכתב על ידי כימאי. אֵיך? על ידי הצבת אטומים במקום שבו הכימאי אומר ליצור חומר." כל זה הוא פשטות. אם אתה יודע להזיז מולקולות או אטומים בודדים, אתה יכול לעשות כמעט הכל.

ננוטכנולוגיה הפכה לתחום מדעי רציני בשנת 1986 כאשר המהנדס אריק דרקסלר הציג את יסודותיה בספרו המכונן Machines of Creation, אולם דרקסלר עצמו מאמין שמי שרוצה ללמוד יותר על רעיונות עדכניים בננוטכנולוגיה צריכים לקרוא את ספרו "Full Abundance" משנת 2013 (Radical שפע).

כמה מילים על "רפש אפור"
אנחנו מתעמקים בננוטכנולוגיה. בפרט, נושא ה"גוי אפור" הוא אחד הנושאים הכי לא נעימים בתחום הננוטכנולוגיה, שאי אפשר להתעלם ממנו. בגרסאות ישנות יותר של תורת הננוטכנולוגיה, הוצעה שיטת הננו-הרכבה, שכללה יצירת טריליוני ננו-רובוטים זעירים שיעבדו יחד כדי ליצור משהו. אחת הדרכים ליצור טריליוני ננו-רובוטים היא ליצור אחד שיכול לשחזר את עצמו, כלומר מאחד - שניים, משניים - ארבע וכן הלאה. כמה טריליוני ננו-רובוטים יופיעו ביום אחד. כזה הוא כוחה של צמיחה אקספוננציאלית. זה מצחיק, לא?

זה מצחיק, אבל בדיוק עד שזה מוביל לאפוקליפסה. הבעיה היא שכוחה של צמיחה אקספוננציאלית, מה שעושה את זה די נוח ליצור במהירות טריליון ננו-בוטים, הופך את השכפול העצמי לדבר מפחיד בטווח הארוך. מה אם המערכת קורסת, ובמקום להפסיק את השכפול בכמה טריליון, הננו-בוטים ממשיכים להתרבות? מה אם כל התהליך הזה תלוי בפחמן? הביומסה של כדור הארץ מכילה 10^45 אטומי פחמן. ננובוט יצטרך להיות בסדר גודל של 10^6 אטומי פחמן, כך ש-10^39 ננובוטים יבלעו את כל החיים על פני כדור הארץ ב-130 שכפולים בלבד. אוקיינוס ​​של ננו-בוטים ("רפש אפור") יציף את כדור הארץ. מדענים חושבים שננו-בוטים יכולים להתרבות תוך 100 שניות, מה שאומר שטעות פשוטה עלולה להרוג את כל החיים על פני כדור הארץ תוך 3,5 שעות בלבד.

זה יכול להיות אפילו יותר גרוע אם ידיהם של טרוריסטים ומומחים שליליים יגיעו לננו-טכנולוגיות. הם יכולים ליצור כמה טריליוני ננו-בוטים ולתכנת אותם להתפשט בשקט ברחבי העולם תוך שבועיים. ואז, בלחיצת כפתור, תוך 90 דקות בלבד, הם יאכלו הכל, בלי סיכוי.

למרות שסיפור האימה הזה נידון בהרחבה כבר שנים, החדשות הטובות הן שזה רק סיפור אימה. אריק דרקסלר, שטבע את המונח "גוי אפור", אמר לפני כמה ימים: "אנשים אוהבים סיפורים מפחידים, וזה שייך לקטגוריה של סיפורי אימה זומבים. הרעיון הזה כשלעצמו כבר אוכל מוח.

ברגע שנגיע לתחתית הננוטכנולוגיה, נוכל להשתמש בה כדי ליצור מכשירים טכניים, בגדים, מזון, מוצרים ביולוגיים - תאי דם, לוחמי וירוסים וסרטן, רקמת שריר וכו' - כל דבר. ובעולם שמשתמש בננוטכנולוגיה, עלות החומר כבר לא תהיה קשורה למיעוט שלו או למורכבות תהליך הייצור שלו, אלא למורכבות המבנה האטומי שלו. בעולם הננוטכנולוגיה, יהלום יכול להיות זול יותר ממחק.

אנחנו אפילו לא קרובים עדיין. ולא לגמרי ברור אם אנחנו ממעיטים או מעריכים את המורכבות של הדרך הזו. עם זאת, הכל הולך לעובדה שהננוטכנולוגיה אינה רחוקה. קורצווייל מציע שעד שנות ה-2020 יהיו לנו אותם. ממשלות העולם יודעות שננו-טכנולוגיות יכולות להבטיח עתיד גדול, ולכן הן משקיעות בהן מיליארדים רבים.

רק תארו לעצמכם איזה סוג של יכולות יקבל מחשב סופר אינטליגנטי אם הוא יגיע להרכבת ננומטרית אמין. אבל ננוטכנולוגיה היא הרעיון שלנו, ואנחנו מנסים לרכוב עליה, קשה לנו. מה אם עבור מערכת ASI הם יהיו רק בדיחה, וה-ASI עצמו יבוא עם טכנולוגיות שיהיו הרבה פעמים חזקות יותר מכל מה שאנחנו יכולים אפילו לדמיין באופן עקרוני? הסכמנו: אף אחד לא יכול לנחש למה תהיה בינה-על מלאכותית מסוגלת? יש דעה שהמוח שלנו לא מסוגל לחזות אפילו את המינימום של מה שיקרה.

מה AI יכול לעשות עבורנו?



חמוש במודיעין-על ובכל הטכנולוגיות שמודיעין-על יכול ליצור, ASI יוכל כנראה לפתור את כל הבעיות של האנושות. התחממות גלובלית? ה-CSI יפסיק תחילה לפלוט פחמן דו חמצני על ידי המצאה של שורה של דרכים יעילות להפקת אנרגיה שאינה כרוכה בדלק מאובנים. לאחר מכן הוא ימציא דרך יעילה וחדשנית להסיר עודפי CO2 מהאטמוספרה. סרטן ומחלות אחרות? לא בעיה - שירותי הבריאות והרפואה ישתנו בדרכים שאי אפשר להעלות על הדעת. רעב עולמי? ISI תשתמש בננוטכנולוגיה כדי ליצור בשר זהה לטבעי, מאפס, בשר אמיתי.

הננוטכנולוגיה תוכל להפוך ערימת אשפה לבור של בשר טרי או מזון אחר (אפילו לא בצורה הרגילה - דמיינו קוביית תפוח ענקית) ולהפיץ את כל האוכל הזה ברחבי העולם באמצעות מערכות תחבורה מתקדמות. כמובן, זה יהיה נהדר עבור בעלי חיים שכבר לא יצטרכו למות לאוכל. ה-ASI יכול גם לעשות דברים רבים אחרים, כמו הצלת מינים בסכנת הכחדה או אפילו להחזיר את אלה שכבר נכחדו מה-DNA השמור. ה-ASI יכול לפתור את הבעיות המקרו-כלכליות הקשות ביותר שלנו - הדיונים הכלכליים הקשים ביותר שלנו, שאלות של אתיקה ופילוסופיה, סחר עולמי - כל אלה יהיו ברורים עד כאב ל-ASI.

אבל יש משהו מיוחד ש-ISI יכול לעשות עבורנו. מפתה ומתגרה שישנה הכל: ASI יכולה לעזור לנו להתמודד עם תמותה. אם תבין בהדרגה את האפשרויות של AI, ייתכן שתשקול מחדש את כל הרעיונות שלך לגבי המוות.

לא הייתה שום סיבה שהאבולוציה תאריך את תוחלת החיים שלנו מעבר למה שהוא עכשיו. אם אנחנו חיים מספיק זמן כדי ללדת ולגדל ילדים עד לנקודה שבה הם יכולים להסתדר בעצמם, אבולוציה מספיקה. מנקודת מבט אבולוציונית, 30+ שנים מספיקות להתפתחות, ואין סיבה למוטציות שמאריכות חיים ומפחיתות את ערך הברירה הטבעית. וויליאם באטלר ייטס כינה את המין שלנו "נשמה המחוברת לחיה גוססת". לא כיף במיוחד.

ומכיוון שכולנו מתים מתישהו, אנו חיים עם המחשבה שהמוות הוא בלתי נמנע. אנחנו חושבים על הזדקנות לאורך זמן – להמשיך להתקדם ולא להצליח לעצור את התהליך הזה. אבל המחשבה על המוות היא בוגדנית: נלכדים בה, אנחנו שוכחים לחיות. ריצ'רד פיינמן כתב:

"יש דבר נפלא בביולוגיה: במדע הזה אין דבר שידבר על נחיצות המוות. אם אנחנו רוצים ליצור מכונת תנועה מתמדת, אנחנו מבינים שגילינו מספיק חוקים בפיזיקה שמצביעים על כך שזה בלתי אפשרי או שהחוקים שגויים. אבל אין שום דבר בביולוגיה שיעיד על בלתי נמנע של מוות. זה גורם לי לחשוב שזה לא כל כך בלתי נמנע, וזה רק עניין של זמן עד שביולוגים יגלו את הסיבה לבעיה הזו, המחלה האוניברסלית הנוראה הזו, היא תתרפא.

העובדה היא שלהזדקנות אין שום קשר לזמן. הזדקנות היא בלאי של החומרים הפיזיים של הגוף. חלקי רכב גם מתכלים - אבל האם ההזדקנות הזו היא בלתי נמנעת? אם תתקן את המכונית שלך כאשר חלקים נשחקים, זה יימשך לנצח. גוף האדם אינו שונה, רק מורכב יותר.

קורצווייל מדבר על ננו-בוטים חכמים המחוברים ל-Wi-Fi בזרם הדם שיכולים לבצע אינספור משימות לבריאות האדם, כולל תיקון או החלפה קבוע של תאים שחוקים בכל חלק בגוף. אם ישתפר בתהליך זה (או אלטרנטיבה המוצעת על ידי ASIs חכמים יותר), זה לא רק ישמור על הגוף בריא, זה יכול להפוך את ההזדקנות. ההבדל בין גופו של בן 60 לילד בן 30 טמון בקומץ בעיות פיזיות שניתן לתקן בעזרת הטכנולוגיה הנכונה. ASI יכולה לבנות מכונה שאדם יכנס אליה בגיל 60 ויצא ממנה בגיל 30.

אפילו מוח משפיל יכול להתחדש. ה-ASI בוודאי יודע לעשות זאת מבלי להשפיע על נתוני המוח (אישיות, זיכרונות וכו'). גבר בן 90 שסובל מהשפלה מוחלטת של המוח יכול לעבור הכשרה מחדש, לשדרג ולהחזיר אותו לתחילת קריירת חייו. זה אולי נראה אבסורדי, אבל הגוף הוא קומץ של אטומים, וה-ASI בהחלט יכול לתמרן אותם בקלות, בכל מבנים אטומיים. זה לא כל כך אבסורד.

קורצווייל גם מאמין שחומרים מלאכותיים ישתלבו יותר ויותר בגוף ככל שיחלוף הזמן. בתור התחלה, ניתן היה להחליף את האיברים בגרסאות מכונות מתקדמות במיוחד שיחזיקו מעמד לנצח ולעולם לא ייכשלו. אז נוכל לעשות עיצוב מחדש מלא של הגוף, להחליף את תאי הדם האדומים בננו-בוטים מושלמים שנעים בעצמם, ולבטל את הצורך בלב לחלוטין. נוכל גם לשפר את היכולות הקוגניטיביות שלנו, להתחיל לחשוב במיליארדים מהר יותר ולגשת לכל המידע הזמין לאנושות דרך הענן.

האפשרויות להגיע לאופקים חדשים יהיו באמת בלתי מוגבלות. אנשים הצליחו לתת למין מטרה חדשה, הם עושים את זה בשביל ההנאה, ולא רק בשביל הרבייה. קורצווייל חושב שאנחנו יכולים לעשות את אותו הדבר עם אוכל. ננובוטים יכולים לספק תזונה אידיאלית ישירות לתאי הגוף, ולאפשר לחומרים לא בריאים לעבור דרך הגוף דרך ודרך. התיאורטיקן של הננוטכנולוגיה רוברט פרייטס כבר פיתח תחליף לתאי דם שכאשר מיושם בגוף האדם, יכול לאפשר לו לא לנשום במשך 15 דקות - והאיש הזה מצא. תאר לעצמך מתי ה-ISI מקבל את הכוח.

בסופו של דבר, קורצווייל מאמין שבני האדם יגיעו לנקודה שבה הם יהפכו למלאכותיים לחלוטין; הזמן שבו נתבונן בחומרים ביולוגיים ונחשוב עד כמה היינו פרימיטיביים; הזמן שבו נקרא על השלבים המוקדמים של ההיסטוריה האנושית, ונפלא כיצד חיידקים, תאונות, מחלות או סתם זקנה יכולים להרוג אדם בניגוד לרצונו. בסופו של דבר, אנשים יתגברו על הביולוגיה של עצמם ויהפכו לנצחיים - כך הוא הדרך בצד השמח של יומן האיזון, עליו דיברנו מההתחלה. וגם האנשים שמאמינים בזה בטוחים שעתיד כזה מחכה לנו מאוד מאוד בקרוב.

אתה בוודאי לא תופתע שרעיונותיו של קורצווייל גררו ביקורת קשה. הייחודיות שלו בשנת 2045 וחיי הנצח של בני אדם לאחר מכן כונתה "עליית חנונים" או "יצירה אינטליגנטית של בני אדם עם מנת משכל של 140". אחרים הטילו ספק בטווח הזמן האופטימי, הבנת הגוף והמוח האנושי, הזכירו את חוק מור, שעדיין לא נעלם. על כל מומחה שמאמין ברעיונות של קורצווייל, יש שלושה שחושבים שהוא טועה.

אבל הדבר הכי מעניין בזה הוא שרוב המומחים שלא מסכימים איתו, באופן כללי, לא אומרים שזה בלתי אפשרי. במקום להגיד "שטויות, זה לעולם לא יקרה", הם אומרים משהו כמו "כל זה יקרה אם נגיע ל-ASI, אבל זה הקאץ'". בוסטרום, אחד ממומחי הבינה המלאכותית המוכרים המזהיר מפני הסכנות של בינה מלאכותית, מודה גם הוא:

"בקושי תהיה בעיה שמודיעין העל לא יוכל לפתור, או אפילו לעזור לנו לפתור. מחלות, עוני, הרס סביבתי, סבל מכל הסוגים – כל אינטליגנציה העל הזו בעזרת ננוטכנולוגיה יכולה לפתור ברגע. כמו כן, אינטליגנציה על יכולה לתת לנו תוחלת חיים בלתי מוגבלת על ידי עצירה והיפוך של תהליך ההזדקנות באמצעות ננו-רפואה או היכולת להעלות אותנו לענן. אינטליגנציה על יכולה גם ליצור הזדמנויות לעלייה אינסופית ביכולת האינטלקטואלית והרגשית; הוא יכול לסייע לנו ביצירת עולם שבו נחיה בשמחה ובהבנה, ניגש לאידיאלים שלנו ומגשים את חלומותינו באופן קבוע.

עם זאת, זהו ציטוט של אחד ממבקריו של קורצווייל, שהכיר בכך שכל זה אפשרי אם נצליח ליצור ASI מאובטח. קורצווייל פשוט הגדיר מה צריכה להיות בינה-על מלאכותית, אם היא בכלל תתאפשר. ואם הוא אלוהים טוב.

הביקורת הברורה ביותר של תומכי אזור הנוחות היא שהם יכולים לטעות לעזאזל לגבי העתיד של ASI. בספרו The Singularity, קורצווייל הקדיש 20 עמודים מתוך 700 לאיומי ASI פוטנציאליים. השאלה היא לא מתי נגיע ל-ASI, השאלה היא מה תהיה המוטיבציה שלו. קורצווייל עונה על שאלה זו בזהירות: "ASI יוצאת ממאמצים רבים ושונים וישתלב עמוקות בתשתית הציוויליזציה שלנו. למעשה, זה יהיה מובנה בצורה הדוקה בגוף ובמוח שלנו. זה ישקף את הערכים שלנו כי זה יהיה אחד איתנו".

אבל אם התשובה היא, מדוע כל כך הרבה אנשים חכמים בעולם הזה מודאגים מהעתיד של הבינה המלאכותית? מדוע אומר סטיבן הוקינג שפיתוח ASI "יכול להיות סוף המין האנושי"? ביל גייטס אומר שהוא "לא מבין אנשים שלא מודאגים" מזה. אילון מאסק חושש שאנחנו "מזמנים שד". מדוע מומחים רבים רואים ב-ASI את האיום הגדול ביותר על האנושות?

נדבר על זה בפעם הבאה.

עיבוד מתוך waitbutwhy.com, אוסף מאת טים ​​אורבן. המאמר משתמש בחומרים מיצירותיהם של ניק בוסטרום, ג'יימס באראט, ריי קורצווייל, ג'יי נילס-ניאלסון, סטיבן פינקר, ורנור וינג', משה ורדי, ראס רוברטס, סטיוארט ארמסטרוג וקאי סוטל, סוזן שניידר, סטיוארט ראסל ופיטר נורוויג, תיאודור מודיס, גארי מרקוס, קארל שולמן, ג'ון סירל, ג'רון לנייר, ביל ג'וי, קווין קלי, פול אלן, סטיבן הוקינג, קורט אנדרסן, מיטש קאפור, בן גורצל, ארתור סי קלארק, הוברט דרייפוס, טד גרינוולד, ג'רמי הווארד.
ערוצי החדשות שלנו

הירשם והישאר מעודכן בחדשות האחרונות ובאירועים החשובים ביותר של היום.

60 הערות
מידע
קורא יקר, על מנת להשאיר הערות על פרסום, עליך התחברות.
  1. +12
    13 באוגוסט 2016 05:37
    אני מציע למחבר בסיפור הבא לדבר על האל-קיסר מ-Warhammer 40000.
    ומה, לא מצוינים דוגמאות של ניסויים מודרניים, ולא מצב הפיתוח הנוכחי. כולם אוהבים לפנטז.
    תאמינו לי, נושא מאוד מעניין, במיוחד אם נצייר אנלוגיות בין רוסיה לאימפריום, אלדר האפל והמערב.
    וציורים ניתן למצוא באינטרנט הרבה יותר מעניינים.
    1. 0
      14 באוגוסט 2016 23:28
      המאמר הוא פילוסופי, לכן זה שגוי להיות ביקורתי ברמת התפיסה שלך. אגב, חוקים פילוסופיים אמיתיים רבים אינם נכללים על ידי נוסחאות מתמטיות והגדרות פיזיקליות. ובכל זאת הם, חוקים פילוסופיים, קיימים ופועלים. העובדה היא שהמתמטיקה מאפשרת צמצומים, וחריגים בפיזיקה
  2. +2
    13 באוגוסט 2016 05:59
    בינה מלאכותית תעניק אלמוות לעשירים, אשר ישרתו אותם על ידי מכונות ומספר מצומצם של משרתים חיים. אבל כמה משעממים החיים שלהם יהיו!
    1. +9
      13 באוגוסט 2016 07:00
      ברגע שה"עשירים" יקבלו אלמוות, הם לא יזדקקו לעושר. במיוחד אם נוצר "ננו-אסמבלר". הבעיה היא כמה יעלה ה"ננויזציה" הראשונית של אדם. אם זה מאוד יקר, אז כן, רק העשירים ביותר יהפכו לבני אדם, וכל השאר ישנאו אותם. אם זה לא מאוד יקר, תהיה בעיה של סלקציה, למי לתת אלמוות, למי לא. על איזה זכות, אם כסף לא מספיק? לבסוף, אם המחיר שווה לחיסון נגד שפעת, אז... שוב תתעורר בעיית הבחירה (מה לעשות עם טיפשים אם, נגיד, שיטות ננוטכנולוגיה לא יכולות לתקן אותם? אבל אם הם תקנו את זה וכולם יהיו חכמים ויפים הבעיה תישאר. הרי יהיו אנשים שביסוד לא ירצו להפוך לסייבורגים. והם עדיין יצטרכו מפעלים, שדות, הם גם יזמומו את הטבע וישנאו בני אדם. בתיאוריה צריך להרוס אותם. אבל זה לא אנושי איך להיות?
      1. +4
        13 באוגוסט 2016 11:36
        ההבנה הפילוסופית של נושא ה"אלמוות" נותחה בפירוט על ידי הומרוס. די להיזכר כמה הצטערו האלים שהם בני תמותה. הם לא יכלו להעריך את העבר, ההווה, העתיד, כי הוא נצחי. לכן, הם נמשכו לאנשים שהעריכו את הרגע, העריכו את החיים. קחו בחשבון את אודיסאוס, שהוצע לו נעורי נצח. אלת אישה צעירה ויפה לנצח, אבל הוא בחר במשפחה, בחיי תמותה וברעיה מזדקנת. למען ההגינות, יש לומר שהבחירה עבורו הייתה אוי כמה קשה. זה נקבע ל-7 שנים תמימות!!! אז, חברים יקרים בפורום, אנשים חיים לנצח, כמו האלים האלמותיים של אולימפוס, יקנאו בנו בני תמותה.
  3. +3
    13 באוגוסט 2016 06:14
    אני מסכים, אין פירוט. ב-VO, הפרטים שונים, פילוסופיה לא מתקבלת בברכה.
  4. +2
    13 באוגוסט 2016 06:44
    ואם הוא אלוהים טוב.

    כאשר AI מופיע, הוא יהפוך לאל. אתה לא חושב שאתה יכול לשלוט בזה, נכון?)
    אריק דרקסלר הציג את יסודותיהם בספרו המכונן מכונות של יצירה.

    קראתי את הספר הזה, נקודות המבט שמתוארות שם מדהימות.
    1. +3
      13 באוגוסט 2016 07:05
      נתתי את המשימה לתלמידים להמציא דת חדשה לעתיד הקרוב. והם למדו הכל והחליטו שזה יהיה... "מכיניזם". מכונה מעולה שעונה על כל שאלה! "מכינים" הם הכוהנים שלה, "קלדניות" הם "המשמנים" שלה. ובכן, וכן הלאה. הסמל הוא גלגל שיניים, רשום בו צלב שבבסיסו 4 סהרונים. -מצחיק!
      1. +4
        13 באוגוסט 2016 09:01
        ומכיוון שקבענו שזה חסר תועלת לחלוטין לנסות להבין את כוחה של מכונה שנמצאת רק שתי דרגות מעלינו, בואו נקבע אחת ולתמיד שאין דרך להבין מה ה-ASI יעשה ומה ההשלכות של זה יהיה בשבילנו. מי שטוען אחרת פשוט לא מבין מה המשמעות של אינטליגנציה על.

        אני חושב שהתלמידים שלך ציירו תמונה סבירה למדי, אבל הבינה המלאכותית תהיה עצמאית, היא לא תצטרך אנשים לסגוד, אלא היא תשתמש בהן למטרות שלה. ככל שזה מתפתח, אני חושב שזה ייכנס לאוקיינוס, משהו כמו סולאריס יתברר ..)
        אפילו ש' לם התרשם מהסיפור שבו נאמר שלמידע יש מסה קריטית. וכשזה יגיע אליו, זה ישמיד את עצמו.
    2. 0
      8 בנובמבר 2016 19:13
      כאשר AI מופיע, הוא יהפוך לאל.


      אם נזרוק את ההשקפה הדתית, המושג אלוהים (כלומר - אחד) הוא מושג פורמליסטי למהדרין. למושג זה יש סט של מאפיינים משלו. ובכן, אז - מערכת הבינה המלאכותית לא תוכל לעמוד אפילו במחצית מהמאפיינים האלה - אז היא לא יכולה להיות אלוהים בהגדרה... *)
  5. +1
    13 באוגוסט 2016 07:26
    נֵצַח. העברת התודעה לנשא - מכונה - לא משנה מאיזה סוג - אוטונומית, או משהו כמו שרת עם מיליארדי תודעות - היא סוג של מוות. במקרה הרע - עבדות, גורלם של צעצועים. סוג של חוות נמלים. לעדכן את הגוף - ליצור אלפים? אז מה יקרה לכדור הארץ בעוד אלף שנים? ענף של חבית עם הרינג ולא העובדה שהרינג שליו. וסביר להניח - האלפים משחקים "חווה", או "מלחמה טוטאלית" מסוג כלשהו. "מונצח". אז בכל מקרה, "כולנו הולכים למות".
  6. +1
    13 באוגוסט 2016 09:14
    אודה לטיפשות! מה זה מודיעין על? אינטליגנציה היא משהו שקרוב לחשיבה אנושית. אין מערכות כאלה. יש רק חיקויים. מה עם מודיעין על? מדוע נחשב כי מהר יותר פירושו נגמר? ספירה מהירה יותר של אפשרויות, אפילו באמצעות אלגוריתם ייחודי, אינה אינטליגנציה, אבל כל המערכות המודרניות הכמו-אינטליגנטיות עובדות בדיוק כך: אלגוריתם ומהירות.
    1. התגובה הוסרה.
    2. +2
      13 באוגוסט 2016 12:31
      ציטוט מאת xorgi
      אודה לטיפשות! מה זה מודיעין על? אינטליגנציה היא משהו שקרוב לחשיבה אנושית. אין מערכות כאלה. יש רק חיקויים.

      כיף לקרוא את תגובתך. +
      ציטוט מאת xorgi
      מדוע נחשב כי מהר יותר פירושו נגמר? ספירה מהירה יותר של אפשרויות, אפילו באמצעות אלגוריתם ייחודי, זו לא אינטליגנציה,

      נכון, זו קומבינטוריקה. לפני AI, זה עדיין כמו פלוטו בקצב הליכה.
      hi
      אני אפרסם את הסרטון הזה שוב, כנראה שאף אחד לא טרח לצפות בו, לייק, אתם מבינים, רייטינג. . .
      אומר דוקטור למדעי הביולוגיה, פרופ. S.V. Savelyev, אמבריולוג, נוירומורפולוג. חבל שכמרים ושרלטנים מופיעים בטלוויזיה לעתים קרובות יותר מאשר מדענים.
      1. +3
        13 באוגוסט 2016 13:52
        שחמט הוא לא משחק אינטלקטואלי! תראה את קספרוב! - כן, אתה יכול לתת מדליה על הביטוי הזה!
    3. 0
      13 באוגוסט 2016 18:05
      xorgi

      לא קראת את הכתבה בעיון. על מה שכתבת שם מפורק בקפדנות.
  7. +3
    13 באוגוסט 2016 09:21
    כבר יש לנו התקדמות ב-ISI -
    יצר חסינות למחשב

    טומסק פיתחה בינה מלאכותית המסוגלת לזהות באופן עצמאי תוכנות זדוניות ללא עזרת מערכות אנטי וירוס.

    החסינות האדפטיבית של מערכת ההפעלה (AIOS) מסוגלת גם לקבוע את מחבר הנגיף על ידי ניתוח קוד התוכנית. מדענים מתכוונים להוכיח שהווירוסים המאיימים על המחשבים שלנו נכתבים על ידי חברות האנטי וירוס עצמן.

    לדברי מומחים, רוב המשתמשים מוציאים ארבעה עד ששת אלפים רובל בשנה כדי להגן על המחשבים שלהם. במקביל, כמעט מדי חודש מופיעים וירוסים חדשים המאיימים על "בריאותו" המחשב האישי. הם מתפתחים כל הזמן, יכולים ללמוד בעצמם ולשנות את התנהגותם.

    - הסקר שלנו בקרב משתמשים הראה ש-65% מהם אינם סומכים על אנטי-וירוסים קיימים בגלל האטימות של עבודתם, - אמר יבגני גרין, ראש מחלקת הקניין הרוחני של TUSUR, ל-RG. - לדוגמה, לאנטי-וירוס יש גישה לכל המחיצות בכוננים וב-RAM, כלומר, כולל הנתונים האישיים שלנו.

    לאנטי-וירוסים פופולריים אין תכונת זיהוי תוכנות זדוניות. הם מסוגלים למצוא רק את הנגיף שכבר ידוע ורשום בספרייה. לכן, הם דורשים עדכונים שוטפים. בינתיים, תוכניות זדוניות שעדיין אינן נמצאות במסדי נתונים אלה נותרות בלתי מזוהות.

    העיקרון העיקרי של AIOS הוא זיהוי אלמנטים של בינה מלאכותית בתוכניות.

    "האלגוריתמים שפותחו ב-TUSUR מאפשרים לזהות בקוד התוכנית את היכולת של גוף הנגיף להעתיק את עצמו וסימנים אחרים של מערכת ויסות עצמית הדומה לאורגניזם חי", שירות העיתונות של ארגונים חדשניים באזור טומסק דיווחים.

    - ניתן להשוות את התוכנית שלנו למערכת חיסונית אמיתית, - מסביר יבגני גארין. - האנטי וירוס הסטנדרטי "הולך על כדורים" לחנות של היצרן שלו. אם אין תרופה לזיהום המסוים הזה, המחשב ימות, כי אין לו "חסינות" משלו. AIOS בודק את קוד התוכנית לאיתור סימנים של זדוניות, עובד כהגנה חיסונית.

    לדברי המפתחים, בעתיד, חסינות מלאכותית תזהה 100% מהנגיפים. בעזרת המערכת, מדענים הולכים להרכיב ספרייה של עקבות סמנטיים בודדים של מתכנתים שכותבים קוד זדוני. צייד הנגיפים לא רק ילמד את התנהגותם ויבודד אותם, אלא גם יחפש את מחבר התוכניות הללו וידווח על פעילותו לרשויות אכיפת החוק.

    "המשימה העיקרית שלנו היא לעצור כתיבת וירוסים על ידי חברות האנטי וירוס עצמן כדי לממש את הביקוש לתוכנות שלהן", אומר יבגני גרין. - יתכן שקיימת איזושהי קנוניה בין ספקי אנטי וירוס לספקי מערכות הפעלה. לכן, אנו מתכננים לשלב את החסינות ההסתגלותית שלנו במערכות ההפעלה המקומיות כחלק מתוכנית החלפת הייבוא.

    מדענים מתכוונים לחבור ליצרנים של מערכות הפעלה מקומיות ולשחרר מחשבים עם חסינות מובנית. זה יגן על משתמשי הקצה לא רק מפני וירוסים, אלא גם מפני יצרנים חסרי מצפון של תוכנות אנטי-וירוס. יחד עם זאת, המשתמשים לא יצטרכו להוציא כסף על עדכון המערכת מדי שנה.

    המפתחים מאמינים שהכנסת חסינות אדפטיבית תאפשר למערכות ההפעלה שלנו להתחרות עם מובילי שוק כמו Windows, Linux, Android ו- iOS.

    פרויקט AIOS כבר משך עניין של כמה משקיעים פוטנציאליים. בתקופה הקרובה יגיעו נציגי אחת החברות לסיביר להיכרות מפורטת יותר עם הפרויקט.
    1. +2
      13 באוגוסט 2016 11:45
      ציטוט: ואדים237
      יצר חסינות למחשב

      סליחה... אסוציאציות...
      זה כבר היה... לצחוק פעם, הסטודנט הידוע לשמצה בבושקין כתב את האנטי וירוס חסינות. נכון, אנטי וירוסים אמיתיים הוגדרו כווירוס. מה שהכי פיקנטי - המחבר קיבל מענק חולני, בנוסף אבא שלו (לא האדם האחרון באוניברסיטה לרפואה) "הטמיע" את האנטי וירוס הזה על מכונות עובדות ובהתאם שילם עבור תמיכה טכנית מהתקציב. ניתוח מפורט היה ב-anti-malware.ru וב-Habrahabr. החבר'ה צחקו הרבה זמן על הטכנולוגיה "F * ואווזים" ...
    2. +3
      13 באוגוסט 2016 18:13
      כלומר, הם פשוט שינו את הרעיון של תוכנת אנטי וירוס. אם הראשונים סורקים את המחשב על נוכחותם של "סמנים" של הספרייה, תוכנת Tomsk צריכה לסרוק על בסיס הנזק של הקוד. בטח בהשוואה לספרייה.

      מרצע לסבון. אבל הם קראו לזה AI.
  8. +2
    13 באוגוסט 2016 10:04
    בהתחשב בכך שהמהות המוסרית של אדם אינה משתנה לא רק במהלך חייו, אלא גם עם "התקדמות" היחסים החברתיים, אנו יכולים לצפות עם כניסת הבינה המלאכותית ... לירידה במספר הפרשנים באתר.
    במקום לתת ליריב "-", אתה יכול פשוט להורות ל-AI לפרק את השפל לאטומים, או ליצור ממנו קוביית תפוח.
    פשוט ומשכנע.
    לא משנה מה אדם עושה, הם עדיין מקבלים רובה סער קלצ'ניקוב. נכון, טוב, זה מאוד גדול. :-)
    כאן יש לך את המעבר של הנושא הפילוסופי של המחבר לנושא הספציפי של האתר שלנו.
    1. 0
      13 באוגוסט 2016 18:18
      kunstkammer

      אתה טועה כאן, חבר.

      האדם נשלט על ידי שינוי המוסר שלו. לא היו מלחמות ואי הסכמות בעולם אם לכולם היו אותם ערכי מוסר.

      אתה יכול להשיג מדינת על אם אנשים מנחילים ערכים מוסריים משותפים.
  9. +3
    13 באוגוסט 2016 10:09
    אם אנחנו מדברים על איזושהי קפיצה איכותית, אז הייתי משייך את זה לא ל-AI, ואפילו לא לטכנולוגיה, אלא לעלייה ביעילות של הציוויליזציה, הרציונליות שלה. שכן כרגע יש בו רק ירידה. הסיבה העיקרית לכך היא אפילו לא צמיחה אקספוננציאלית של סביבה טכנוגנית לא יעילה, אלא עקרון הידע עצמו, כאשר אנו נכנסים לראשונה לבעיה, ואז מתחילים לחפש לפחות פתרון כלשהו.
    1. +2
      13 באוגוסט 2016 17:44
      אני מסכים עם הרעיון הזה. אני חושב אותו דבר.
  10. +1
    13 באוגוסט 2016 10:35
    נניח בצד את השאלה האם ניתן באופן עקרוני ליצור AIS והאם הוא ייווצר, נגיד שכן.
    השאלה הראשונה לגבי האינטראקציה של AIS היא אדם. למען הבהירות, בואו נדמיין את AIS כאדם, ואדם ככלב.
    נניח בצד את המקרה שבו הכלב פשוט מכפיף את הבעלים ומכריח אותם לפעול פחות או יותר למען האינטרסים שלהם, למרות "רמות העליונות", יש צורך גם ברצון ובאופי, בזה לא נוגעים כעת.
    אפשר להשיג כלב למטרה כזו או אחרת, לאמן וללמד התנהגות מסוימת, אחר כך יוצאים לעבודה, וכשחוזרים הביתה רואים את הספה האהובה עליכם קרועה לגזרים, מה זה? היא רצתה כל כך למרות ההכשרה והחינוך. האם התנהגות זו גורמת לך לאי נוחות - כן, האם תילחם בה - כן. ככל הנראה, ה-FAI, המתמודד עם זה, יתחיל בבחירה ובגידול של גזעים אנושיים עם המאפיינים והפרמטרים הדרושים. האם האדם הזה יהיה כמו עכשיו? כן, אבל ההבדל יהיה משהו כמו בין זאב לפודל. אגב, בהסתכלות על מגוון הגזעים, הקבוצות האתניות והמאפיינים שלהם, לדעתי, ניתן לומר ש-AIS קיימת כבר זמן רב ומצמיח את האנושות בכמה מהאינטרסים שלה.
    הנושא השני הוא תחרות. כפי שאתה יודע, מאבק תוך-ספציפי הוא תמיד קשה יותר מאשר בין-ספציפי. אם נניח שיוקמו בו-זמנית כמה מרכזים עצמאיים להפצת AIS, וסביר להניח שכך יהיה, אז הגיוני לצפות מהם לתחרות ולמאבק פנים-ספציפי. קשה לדמיין אילו צורות הוא יקבל והאם מטרותיו יהיו נגישות להבנתם של אנשים. האם ישמשו אנשים במאבק הזה, סביר להניח שכן. באיזו צורה, אני חושב כרגיל - בצורה של "השמדת אויבים". כולל העתיד יהיה מעניין, אבל ככל הנראה, בכלל לא כל כך נטול עננים.
    1. 0
      13 באוגוסט 2016 18:19
      באותה הסתברות, אנו יכולים להניח שאינטראקציה עתידית עם AIS תהיה מעניינת עבור אנשים לזמן קצר מאוד. אם אתה משתמש באנלוגיה שלך עם כלב, אז השימוש בו על ידי אדם בסופו של דבר יעלה בתוהו. בשלבי הפיתוח הראשוניים, הכלב היה בשימוש פעיל על ידי בני אדם, ועם צמיחת הקידמה הטכנולוגית, הצורך בכלב נעלם בהדרגה.
      אם, לעומת זאת, השיפור של AIS הוא באמת אקספוננציאלי, אז בקרוב מאוד AIS יפסיק להזדקק לנו, נעבור מהר מהקטגוריה של כלב לקטגוריית החרקים. ובכן, אז אנחנו מחכים לאנלוגים של מחסות לכלבים או סתם חיסול. למה AIS צריך להכריח אותנו לגרור אותנו למקום אחר לעתיד מזהיר יותר זה לגמרי לא מובן. אלא אם כן רק לשם ניסוי קצר...
      אולי כל זה הוא, מתחילת האבולוציה, ניסוי FAI ליצירת AIS נוסף?
      1. 0
        13 באוגוסט 2016 18:33
        כן, בדרך כלל נכון. אני חושב שסביר להניח שפשוט ננטש על הפלנטה, וה-AIS ימהר "למרחקים לא ידועים", ואז פשוט אין צורך שהוא ישב על הקרקע.
        אבל זה נכון בוואקום כדורי. אני חושב שכמה "שלושה חוקים" יהיו מובנים בכל מערכת כבר מההתחלה, מגבילים או אוסרים באופן ישיר פעולות מסוימות ואפילו לכאורה הרהורים. אחרת אין טעם, התשואה המסחרית על הפרויקט תהיה אפסית או שלילית, על זה לא יתנו הרבה כסף.
        1. 0
          13 באוגוסט 2016 19:54
          אם הם פשוט יפסיקו, אז זה עדיין לא רע. נקווה שהצורך ב-AIS במשאבי הפלנטה שלנו לא יהפוך קריטי עבורנו.
          אז יש תקווה שבמקרה הזה יהיו לנו שאריות של טכנולוגיות כמעט יחידניות, ואז תיאורטית נוכל, על ידי שדרוג האינטלקט האנושי, למשוך את הנציגים האינדיבידואליים שלנו לרמה על-אנושית. כמובן, כולם גם ייצאו למרחק הלא ידוע, אבל זו לפחות סוג של תקווה))
    2. 0
      13 באוגוסט 2016 18:23
      צ'ונגה-צ'אנגה

      נראה לי שאם תחכה אז בפרסום הבא ינתח הנושא שהעלית.

      הָהֵן. נוכחות וצורת אלוהים. שאלה חשובה מאוד. יתר על כן, לחלוטין כל אחד בעולם התמודד עם גילויי גורל.
      1. 0
        13 באוגוסט 2016 18:36
        אתה יודע, אני לא באמת מאמין בכל זה, בגורל, באלוהים וכו'.
        יצירת הבינה המלאכותית היא תחום של מדע יישומי, מתמטיקה, פילוסופיה ואתיקה, שאלות של אמונה איכשהו לא במקום כאן.
        1. +1
          13 באוגוסט 2016 19:09
          צ'ונגה-צ'אנגה

          גילוי הגורל הוא דבר אובייקטיבי ואינו תלוי במודעות שלך. הָהֵן. למשל, כשאני מנתח את חיי, אני מבין יותר ויותר בביטחון שמה שהגעתי אליו היה מונח בי מילדות המוקדמת, עד כמה שאני זוכר את עצמי. הָהֵן. אני למעשה רואה את עצמי כביו-רובוט שמגשים רצון של מישהו אחר עם רצף בלתי משתנה.

          זה נקרא גורל. מכאן השאלה. ומי צריך את כל זה? אולי המודיעין שנחזה עד 2025 כבר קיים. וסביר להניח שהוא לא יאפשר ליצור תחרות לעצמה. למרות שאולי ירצה בן שיח שווה. :)

          אה... כן, אין אמונה... אפילו לא קרוב. סוגיות דתיות אינן בתחום הבינה המלאכותית. שם זה שונה לגמרי.
  11. -3
    13 באוגוסט 2016 11:07
    המחבר אינו מבין את מהות המתרחש. ASI לעולם לא יופיע על פני כדור הארץ, מכיוון שאדם לא יכול לעשות משהו חכם ממנו.
    כן, אפשר יהיה ליצור רובוט שייראה כמו אדם, יעתיק את מעשיו, יענה על שאלות, ידבר, אבל הוא יעשה את כל זה בהתאם לתוכנית שאנשים כתבו. בינה מלאכותית לא יכולה לפנטז ולהרגיש כמו בני אדם, מכיוון שהיא קבוצה של תוכניות שבני אדם נתנו לה.
    לדוגמה, רובוט דמוי אדם יוכל לחייך, אבל הוא יחייך לא בגלל שהוא שמח, אלא בגלל שהפעולה הזו מוגדרת בתוכנית. לכן אין זה סביר שאי פעם תקום AI השווה לנו, ו-ASI לעולם לא תקום, מכיוון שזה מוגבל על ידי היכולות של המוח שלנו.
    1. +3
      13 באוגוסט 2016 12:36
      על איזה סוג של בינה מלאכותית אנחנו יכולים לדבר כשאף אחד לא מבין שיש מנגנון לתפיסת מידע, עיבודו ויישומו על ידי המוח האנושי. ואת המנגנון הזה, כמו גם את עבודתו, יש לתאר בשפה שלא ניתן לשייך לשום פנטזיות או ביטוי פיגורטיבי. זו שפת המספרים. והאנושות אפילו לא הבעלים של כל התכונות של המספרים, כלומר, הפונקציה של ערכו הקבוע. לכן, תחילה יופיעו אנשים שיהפכו לסדר גודל שיותר מסוגלים לנתח את האירועים המתרחשים סביבם, ורק אז ניתן יהיה לראות את היסודות של ניתוח כזה, שניתן לחזור עליו בשכפול מכונה.
  12. +1
    13 באוגוסט 2016 11:26
    רק בחינת המדינה המאוחדת תציל את העולם מהופעתו של ISI. לצחוק אבל אם ה-ISI יופיע, הדבר הראשון שהוא יעשה הוא לבטל (להרוס) את הבעלות הפרטית על אמצעי הייצור. והאנושות תיקח את עצמה כבת ברית, לא כבת זוג.
  13. +1
    13 באוגוסט 2016 12:45
    הדבר הראשון שרובוטים יעשו, לאחר שעלו לשלטון, ייתן לאדם כל מה שהוא רוצה. הרבה אוכל, חיי סרק וכו'. והאדם מתדרדר עם הזמן והופך לחיה. כבר עכשיו יש צורך להבין בבירור היכן ניתן לאפשר רובוטים, ואיפה לא. האנושות נידונה להביס במאבק בין המינים עם רובוטים.
  14. +3
    13 באוגוסט 2016 13:28
    כל סדרת הכתבות הזו נראית כמו RenTV.
    האדם נבדל מקופים ובעלי חיים אחרים בכך שיש לו חשיבה מופשטת פלוס שפה לתקשורת, הקלטה ולמידה, ומילות השפה מייצגות הפשטות ולרוב אנו חושבים בעזרת השפה, או לפחות באמצעות הפשטות שיש להן שמות בשפה. יש לנו גם מוטיבציה ביולוגית לחשוב יותר מאשר שכן, או חיה ביער – אנחנו "רוצים" ליהנות מהחיים "בשוקולד", ולא להרעיב, לקפוא, לחלות ולמות לבד.
    אנחנו לא יודעים אם יש משהו אחר גבוה יותר מחשיבה מופשטת, סביר להניח שאין שום דבר גבוה יותר. לכן, על מה אנחנו מדברים? מה זה עוד ISI? אם מחשב שולט בחשיבה מופשטת ויש לו מוטיבציה לחשיבה עצמאית, אין זה אומר שהוא מיד יעקוף אדם באופן משמעותי ויהווה איום קיומי עבורו. יש סכנה, אבל אל תגזים. יש צורך להגביל בזהירות את הכוחות של מחשבים רבי עוצמה, למשל, לא לתת להם לחצנים גרעיניים ולא לתת שליטה על תקשורת. אז זה יהיה רק ​​מכונות חכמות, זה הכל.
    1. 0
      13 באוגוסט 2016 18:28
      בז

      כאשר אדם אינו חושב על הצורך בהישרדות, הוא מפנה את מאמציו ליצירתיות.

      לכן, לא משנה כמה זה טוב בשבילך, מחפשים הרפתקאות.
  15. +1
    13 באוגוסט 2016 15:16
    ציטוט של Falcon5555

    אנחנו לא יודעים אם יש משהו אחר גבוה יותר מחשיבה מופשטת, סביר להניח שאין שום דבר גבוה יותר.

    מאיפה אתה שואב כזה ביטחון?
  16. -1
    13 באוגוסט 2016 16:12
    אבל אם התשובה היא, מדוע כל כך הרבה אנשים חכמים בעולם הזה מודאגים מהעתיד של הבינה המלאכותית? מדוע אומר סטיבן הוקינג שפיתוח ASI "יכול להיות סוף המין האנושי"? ביל גייטס אומר שהוא "לא מבין אנשים שלא מודאגים" מזה. אילון מאסק חושש שאנחנו "מזמנים שד". מדוע מומחים רבים רואים ב-ASI את האיום הגדול ביותר על האנושות?
    רב. כן, השוויון כולו הוא ממחשבות על בלעדיות. הם מושפעים מהנגיף הזה. על ידי גילוח גרונם הם יחתכו את עצמם או על ידי קשירת עניבה, הם יחנקו את עצמם. De bi ly.
    שלנו ייושם ויושם. לא בלה בלה בלה.
    1. 0
      14 בינואר 2017 11:15
      ציטוט: Prince_Pensions
      שלנו ייושם ויושם. לא בלה בלה בלה.
      עד כה, המכרזים היחידים שלנו למדו להכריז ולקצץ בתקציב ב"בלה בלה בלה" הקולני על "אין כמוהו בעולם".
  17. 0
    13 באוגוסט 2016 18:32
    סדרת מאמרים מעניינת. מתורגם היטב. דרך אופיינית לבניית משפטים לאנשים מהמערב. סגנון ציבורי טוב. מינימום של "עייפות אקדמית", מושך עם טרמינולוגיה קשה לזכור.

    תודה למחבר.
  18. 0
    13 באוגוסט 2016 19:42
    בואו נגדיר את המונח לתאר AI , וזה יהיה כמו שם

    1. 0
      13 באוגוסט 2016 20:00
      המחבר כבר החליט על הטרמינולוגיה. לא צריכה להיות אלטרנטיבה.
  19. +1
    13 באוגוסט 2016 20:27
    ציטוט מאת gladcu2
    עם טרמינולוגיה

    ציטוט מאת gladcu2
    המחבר כבר החליט על הטרמינולוגיה.

    ובכן, אני רוצה להבין מה פיזית בתרשים רץ כל כך גבוה במעלה המדרגות

    1. גורד שחקים והרבה מחשבי על מקוררים בדם מלאכותי?
    2. אנדרואיד מסויים, מצרחנים?
    3. או שהמחשב שלי עומד ליד התנור הוא צומת עצבי של ישות גבוהה יותר?
  20. +3
    13 באוגוסט 2016 22:30
    כמו החלק הראשון של המאמר הזה, גם השני, לדעתי, הוא שטויות.
    כן, ולאתר הזה אין מה לעשות, אפילו בנושא "שליחות קטלנית".
  21. +2
    13 באוגוסט 2016 22:34
    דבר אחד מרגיע שמומחי ASI עם "ידע" כזה לעולם לא יבנו AI.

    אני מסביר: "הפילוסוף של אוקספורד ותיאורטיקן הבינה המלאכותית המוביל ניק בוסטרום מאמין... 'כל המינים מתים'". נו איך אתה יכול לדבר על זה, כלומר. לדווח שהוא איכשהו חקר את הנושא הזה ובמקביל לא לדעת על פרוקריוטים - אורגניזמים חד-תאיים אלמוות (יש להם תחומים, מעמדות, משפחות, סוגים ומינים) שאינם מתים, אלא מתחלקים ומתחלקים במשך יותר מ-4,5 מיליארד שנים !!!

    כמו כן, הם לגמרי לא מוכרים, אם לשפוט לפי חוסר האזכור, עם יציבות המערכות, חשיבות הסביבה החברתית והחומרית לפעילות הנפש, ואפילו הכלל הפשוט, ולכן האוניברסלי, לפיו מבנה מחדש מסובך יותר מאשר בנייה - זה אומר שכל פיתוח עצמי (רה-מבנה) ASI קשה יותר מהיכולות של ASI, מה שאומר שזה לא אפשרי בטווח הארוך. האנושות מתגברת על המכשול הזה על חשבון החברתיות, נראה שלאותם מומחים אין מושג לגבי זה (אולי בחלק השלישי, מה יקרה). אגב, בגלל החברתיות הזו, ISI ייאלץ להתרועע, כמו כל אדם, והחברה המוצלחת היא שתהיה ברת קיימא, ולא המפלצות שדמות המדע ההוליוודית מפחידה.
  22. 0
    14 באוגוסט 2016 09:39
    המאמר הוא שחזור של קומפילציה מקומץ מקורות, שנכתב על ידי טים אורבן מסוים.
    מי זה טים אורבן? תשובה: "טים אורבן. בלוגר אמריקאי".
    בלוגר, סתם בלוגר, כלומר אדם שתפקידו לכתוב מאמרים באינטרנט.
    בהתאם לכך, "בלוגר מאמין שמודדים מים במסננת".
  23. 0
    14 באוגוסט 2016 12:22
    הכתבה רצינית.
    אני אתן לך דוגמה. כשהייתי ילד, אני
    לימדו אותי לשחק קצת Go (ברמה הכי יסודית), משחק יפני.
    הוא למד בדאצ'ה על ידי קרוב משפחה רחוק, מתמטיקאי, כעת בדימוס, לאחר שעבד בהרווארד.
    אני זוכר שהוא אז (בשנת 1970) אמר: "אולי הם יגלו
    מחשב שישחק שחמט ברמה של אלופי עולם.
    אבל הם לעולם, לעולם לא יבואו עם מחשב שינצח אדם
    ב-Go, מכיוון שמספר האפשרויות ומידת ההפשטה במשחק הזה הם אינספור."

    השנה, Comp בביטחון - וכמה פעמים - גבר על אלוף העולם ב-Go.
    1. 0
      14 באוגוסט 2016 12:47
      על העובדה שהמתמטיקה המוטמעת במחשב חייבת להתאים לפונקציות הפצה, אז הם קוראים לי טיפש, אבל אז אתה, יקירי, משמיע את שאלות הרב-שונות. יתרה מכך, אחרים שוללים את האפשרות של ניתוח מתמטי באופן כללי בהתבסס על הפונקציה של בניית קשרים מתמטיים אלגוריתמיים ונשענו על מתמטיקה חישובית כתרופה פלאיה.
      לכן, המתמטיקה של החשיבה האנושית אינה מחושבת ובנויה על חשבון אינטגרלי ודיפרנציאלי. היא מפיצה!!! המשמעות היא שהיא מאפשרת בניית מערכות יחסים הן מבחינת וקטור והן מבחינת פוטנציאל. זה הרבה יותר פשוט ודי מדויק במשימתו להשיג תשובות המשקפות את המציאות כפי שהיא מופיעה בניתוח.
      אין שום דבר מפתיע בעובדה שמחשב יכול לנצח את Go. פשוט ספור את הכמות הכוללת של משאבים שהושקעו על זה עבור אדם ומחשב. ובכן, בדיוק כמו ילדים!
    2. 0
      14 באוגוסט 2016 15:12
      ציטוט מאת: voyaka אה
      Comp בביטחון - וכמה פעמים - גברה על Go השנה

      , ואותו מחשב (תוכנית) יכול פשוט לשחק איתי שחמט או פוקר? אני חושב שלא ,
      1. 0
        14 באוגוסט 2016 16:58
        קל להכניס אפליקציות (תוכניות) רבות למחשב אחד.
        עבור שחמט, גו, פוקר ועוד אלפים. הוא יעשה "מתג"
        למשימה חדשה (בדיוק כמו שהמוח שלנו עושה) ו- קדימה.
        וזה יעלה עליך (וגם אותי), אין ספק.
        תוכניות כאלה הן למידה עצמית. ראשית, המחשב מעתיק את הטקטיקה שלך,
        סגנון, טכניקות (למידה עצמית) ומתחיל להשתמש בהם נגדך. זה כאילו אתה משחק עם עצמך
        רק משופר (המהירות והדיוק של הביצועים של המחשב גבוהים יותר כמובן).
        והמחשב מתחיל ללחוץ עליך בשיטות משלך. בנוסף, יש לו גם זיכרון של יריבים קודמים במילואים.
        והוא יכול, אם נמאס לו להתייסר, "לדפוק" בטכניקה של מישהו אחר.
        אבל הוא בהחלט ישחק חתול ועכבר - מה אם ילמד משהו חדש?
        באופן כללי, AI הוא לא סוג של אינדיבידואל עם מנת משכל גבוהה, אלא טיפוס מרושע, ערמומי, חסר בושה כמו מראה וחסר רחמים. עצוב
        1. 0
          16 באוגוסט 2016 15:56
          לאחר שגבר על אלוף העולם, הוא פגע בתקרה - אין ממי ללמוד. האם הוא ישחק לבד? או מישהו ללמד? או להמציא משחק חדש?
          או לחכות לנצח עד שמישהו שוב יושב ממול
      2. התגובה הוסרה.
  24. 0
    14 באוגוסט 2016 21:19
    ציטוט מאת: voyaka אה
    ותשחק יותר ממך (וגם אותי),


    האם הוא יכול לנצח את המשחק הזה?
  25. +1
    14 באוגוסט 2016 22:21
    ולמה נעשה שימוש ב-AI ביחיד?
    איפה שיש אחת, יש אלפי ישויות.
    ומי מהם יהיה לצידנו, ומי נגד, נראה. תחרות ודומיננטיות, אתה יודע...

    ומשחק האנושות של רשעות, הונאה, זלזול וחנופה מאומן לשלמות... בואו נשחק איתם את המשחק הזה (AI).
  26. +1
    14 באוגוסט 2016 22:46
    ואז, כבר מזמן נאמר - לכל חכם די בפשטות.
  27. 0
    15 באוגוסט 2016 13:47
    ציטוט מאת gladcu2
    כלומר, הם פשוט שינו את הרעיון של תוכנת אנטי וירוס. אם הראשונים סורקים את המחשב על נוכחותם של "סמנים" של הספרייה, תוכנת Tomsk צריכה לסרוק על בסיס הנזק של הקוד. בטח בהשוואה לספרייה.

    מרצע לסבון. אבל הם קראו לזה AI.


    כבר הסכימו. זה נקרא ניתוח היוריסטי.
  28. 0
    22 בספטמבר 2016 23:35
    בחלק מסוים של המאמר, כן, סנוב הזוי...

    תן לי להסביר את דעתי:
    1) כדי ליצור AI אמיתי ברמה של אדם (קיים עכשיו), אתה צריך להיות חכם יותר, חכם יותר מאדם (קיים עכשיו), למעשה, לעלות לרמה גבוהה יותר, לרמה של סופרמן (או רמה, כמו במאמר זה, ASI).

    2) לכן, האירוע הזה לא קרוב, רחוק מקרוב, אם כי יהיה - כנראה שרוב הפורמונצ'נים מכירים, לפחות ממאמרים באינטרנט, את תופעת ילדי ה"אינדיגו", הנחשבים לאנשי ה"אינדיגו". עתיד, אנשים עם מוח על. הָהֵן. אלה הם אלה שבאמת יכולים לבנות AI ברמה של אדם חי עכשיו.

    3) על מנת להיות אובייקט שמפתח את עצמו, אדם חייב להיות עצמאי לפחות בעולם החומר, צריך ללמוד להרגיש את העולם החומרי, להבין את צרכיו לפחות במידה מסוימת... אלגוריתם "מחשב" טהור, לא משנה כמה זה מורכב, לא יהיו אפילו פיסות מידע להתפתחות עצמית מבלי לעבור את הדרך של עצמאות בעולם החומרי הזה, כלומר. דרכים להתפתחות אנושית. כמובן, אדם יכול לעזור בהתפתחות בכיוון הזה, אבל גם אז ורק אז, כאשר רואים את הנקודה הראשונה.
  29. 0
    22 באוקטובר 2016, 20:28
    כבר אין צורך באנשים. אני לא זוכר את הסופר אבל אני זוכר את שם הספר "ק"ד - כפיל קיברנטי" הספר נכתב בשנות ה-70 והיה מעניין בצורה בלתי רגילה. אינטליגנציה על תסתכל על אדם כמו שאדם מסתכל על כלב, על יצור מאוד מצחיק אבל לא מבין. כאילו, רואים בעיניים שלו שהוא מבין הכל, אבל הוא לא יכול להגיד.
  30. 0
    24 באוקטובר 2016, 18:05
    אדם חי בעולם התפיסה ברמת האובייקטיביות. כלומר, אנחנו תופסים הכל בצורה אובייקטיבית - זה זה או זה. אבל כל דבר בעולם הזה טבוע גם בתהליכיות. כלומר, הכל נמצא בתהליך של טרנספורמציה. לכן, תפיסת עולם הבנויה על עקרונות של חוסר ההפרדה של האחד מהשני יוצרת את המציאות ואת הלימות תפיסת המציאות. על זה, המתמטיקה בנויה על פונקציה של ערך קבוע של מספר, המאפשרת לשלב ריבוי ובו בזמן אינדיבידואליות. ללא היסודות של הידע הזה, AI לא יכול אפילו להתקרב
  31. 0
    11 בנובמבר 2016 09:43
    קורצוויילי הזה הזכיר לי את צ'ובאיס, גם הוא שרלטן רמאי וערמומי.

    נדרשים ניסיונות להפוך אדם לאלמוות כדי לדפוק כסף מהאנשים העשירים הזקנים, שבכוחם האחרונים נאחזים בחיים החולפים.

    בעיית ההזדקנות ידועה וברורה למדי - אלו הן שגיאות בשכפול התא ומערכת של זבל נוסף בכרומוזומים עם כל שיבוט.
    אם, בדרך כלשהי, כדי לבטל שגיאות, זה יעצור את האבולוציה.

    דיון ברציונליות ובאינטליגנציה העל של מנועי החיפוש והקניית היגיון, אותו דבר אינו עומד בביקורת, כל מה שהם מסוגלים הוא לאסוף ולמסור את מחשבותיהם של אנשים אחרים.

    למעשה, ההתפתחות של האנושות הלכה מהר יותר בגלל התכנסותם של אנשים בחברה מבוססת אינטרנט, וכעת אנשים לא ממציאים את הגלגל מחדש בכל חברה מבודדת.

    בקיצור - סערה בכוס תה!
  32. 0
    7 באוגוסט 2017 19:53
    הקב"ה הכניס את השכל לקוף, התברר שהוא גבר. ככה אנחנו חיים, השוויון כמו עם הקב"ה ומהותו של קוף. פעל לפי מצוות ה', שערי התבונה ייפתחו.

"מגזר נכון" (אסור ברוסיה), "צבא המורדים האוקראיני" (UPA) (אסור ברוסיה), דאעש (אסור ברוסיה), "ג'בהת פתח א-שאם" לשעבר "ג'בהת א-נוסרה" (אסור ברוסיה) , טליבאן (אסור ברוסיה), אל-קאעידה (אסור ברוסיה), הקרן נגד שחיתות (אסורה ברוסיה), מטה נבלני (אסור ברוסיה), פייסבוק (אסור ברוסיה), אינסטגרם (אסור ברוסיה), מטה (אסור ברוסיה), החטיבה המיזנתרופית (אסורה ברוסיה), אזוב (אסור ברוסיה), האחים המוסלמים (אסורים ברוסיה), Aum Shinrikyo (אסור ברוסיה), AUE (אסור ברוסיה), UNA-UNSO (אסור ברוסיה). רוסיה), Mejlis של העם הטטרי קרים (אסור ברוסיה), הלגיון "חופש רוסיה" (מבנה חמוש, מוכר כטרוריסט בפדרציה הרוסית ואסור)

"ארגונים ללא מטרות רווח, עמותות ציבוריות לא רשומות או יחידים הממלאים תפקידים של סוכן זר", וכן כלי תקשורת הממלאים תפקידים של סוכן זר: "מדוזה"; "קול אמריקה"; "מציאות"; "הווה"; "רדיו חופש"; פונומארב; Savitskaya; מרקלוב; קמליאגין; אפחונצ'יץ'; מקרביץ'; לֹא יִצְלַח; גורדון; ז'דנוב; מדבדב; פדורוב; "יַנשׁוּף"; "ברית הרופאים"; "RKK" "מרכז לבדה"; "זִכָּרוֹן"; "קוֹל"; "אדם ומשפט"; "גֶשֶׁם"; "אמצעי תקשורת"; "דויטשה וולה"; QMS "קשר קווקזי"; "פְּנִימַאי"; "עיתון חדש"