הערות של המוח האנושי: האמריקאים רוצים לשנות בינה מלאכותית צבאית

55
הערות של המוח האנושי: האמריקאים רוצים לשנות בינה מלאכותית צבאית
מקור: vgtimes.ru


האם דה-הומניזציה דיגיטלית בוטלה?


ראשית, מילת אזהרה מלוחמי בינה מלאכותית צבאית:



"מכונות אינן רואות בנו אנשים, עבורן אדם הוא רק פיסת קוד שצריך לעבד ולמיין. מבתים חכמים ועד שימוש בכלבים-רובוטים שוטרים, טכנולוגיות בינה מלאכותית וקבלת החלטות אוטומטית החלו לשחק תפקיד גדול בחיינו. בקצה הקיצוני של שורת המכשירים הדיגיטליים נמצאים רובוטים קטלניים. אם נאפשר את הדה-הומניזציה הקשורה, בקרוב נילחם כדי להגן על עצמנו מפני החלטות שנעשו על ידי מכונה בתחומים אחרים בחיינו. קודם כל צריך לאסור מערכות אוטונומיות נשקכדי למנוע גלישה לדה-הומניזציה דיגיטלית".

פציפיסטים הדורשים להקפיא את כל העבודה על בינה מלאכותית קרבית נחלקים לשני סוגים. הראשון הוא "Terminators" המתוקן ואנלוגים אחרים. השני - הערכת העתיד לפי היכולות המודרניות של רובוטים קרביים. קודם כל, רכבים בלתי מאוישים מכונפים המצוידים במערכות פגיעה.

יש מספיק פרקים של השמדה שגויה או מכוונת של אזרחים על ידי מל"טים. במזרח התיכון, אמריקאי מזל"טים הרס יותר מטקס חתונה אחד. מפעילי רובוטים מעופפים זיהו את הירי החגיגי באוויר-אוויר כסמן של קרבות גרילה. אם אדם מאומן במיוחד אינו מסוגל לקבוע את פרטי המטרה מכמה מאות מטרים, אז מה אנחנו יכולים לומר על בינה מלאכותית. כרגע, לא ניתן להשוות ראיית מכונה, במונחים של הלימות של תפיסת תמונה, עם העין והמוח האנושיים. אלא אם כן הוא מתעייף, אבל זה גם נפתר על ידי החלפת מפעיל בזמן.

עננים מתאספים בבירור מעל בינה מלאכותית צבאית. מצד אחד, יש יותר ויותר עדויות לפריצת דרך טכנולוגית קרובה בתחום זה. מנגד, נשמעים יותר ויותר קולות בעד הגבלת או אפילו איסור עבודה בכיוון זה.

כמה דוגמאות.

ב-2016 הופיעה עצומה שבה הוגים בולטים ואלפי אנשים נוספים דרשו שלא להעניק לבינה מלאכותית נשק קטלני. בין החותמים סטיבן הוקינג ואילון מאסק. במהלך שבע השנים האחרונות, העצומה אספה יותר מ-20 חתימות. בנוסף לפחדים הומניסטיים גרידא הקשורים לאפשרות של השמדה בלתי מבוקרת של אנשים, יש גם חוסר עקביות משפטית.

מי יישפט במקרה של תיקון פשעי מלחמה שבוצעו על ידי בינה מלאכותית? קל למצוא את מפעיל הרחפנים ששרף כמה כפרים עם אזרחים ולהעניש בהתאם. בינה מלאכותית היא תוצר של עבודה קולקטיבית של מתכנתים. קשה מאוד למשוך לכאן אדם אחד. לחילופין, אתה יכול לשפוט את החברה המייצרת, למשל, את אותה בוסטון דיינמיקס, אבל אז מי יהיה מעורב בייצור של מל"טים אוטונומיים. למעטים האנשים יהיה הרצון להיות ברציף של בית הדין השני של נירנברג.


מקור: koreaportal.com

כנראה מסיבה זו מנסים תעשיינים ומתכנתים להאט את התפתחות כישורי הלחימה בבינה מלאכותית.

לדוגמה, בשנת 2018, כמאתיים חברות IT וכמעט חמשת אלפים מתכנתים התחייבו לא לעבוד על מערכות אוטונומיות קרביות. גוגל טוענת שבעוד חמש שנים ינטשו לחלוטין חוזים צבאיים בתחום הבינה המלאכותית. לפי האגדה, פציפיזם כזה אינו מקרי - מתכנתים, לאחר שנודע להם שהם כותבים קודים למערכות צבאיות, איימו להפסיק בהמוניהם. כתוצאה מכך מצאו אופציה ידידותית - החוזים הקיימים מתקיימים בהשלמתם, אך לא נסגרים חדשים. ייתכן שסמוך יותר למועד הסירוב לעבוד על AI קרבי, ה"מתכנתים" הבלתי פתירים פשוט יפוטרו, ויחליפו אותם בלא פחות מוכשרים. למשל מהודו, שהתפרסמה זה מכבר בזכות המשאבים האינטלקטואלים הזולים שלה.

ואז יש את משרד Stop Killer Robots, שקורא למנהיגי העולם לחתום על משהו כמו אמנה לאיסור על AI לחימה. עד כה ללא הצלחה.

כל האמור לעיל גורם לפקידי צבא לחפש דרכים לעקיפת הבעיה. אפילו שעה בבחירות לא תזכה את נשיא ארה"ב, לא רק שמבטיח חסד להט"ב אוניברסלי, אלא גם איסור על שיפור הבינה המלאכותית הצבאית.

חשיבה אנושית עבור AI


נראה שהפנטגון עומד על סף פריצת דרך כלשהי ב-AI. או שהוא היה משוכנע בזה. אין דרך אחרת להסביר את הופעתה של הנחיה חדשה המסדירה את ההומניזציה של מערכות לחימה אוטונומיות. קתלין היקס, סגנית שר ההגנה של ארה"ב, אומרת:

"בהתחשב בהתקדמות המשמעותית בטכנולוגיה שמתרחשת מסביבנו, עדכון ההוראה שלנו לגבי האוטונומיה של מערכות נשק יעזור לנו להישאר מובילים עולמיים לא רק בפיתוח ופריסה של מערכות חדשות, אלא גם בתחום האבטחה".

שמעתם את כל מי שמתפעל מרובוטים רוצחים אוטונומיים? הבינה המלאכותית האמריקאית תהיה מעתה והלאה ההומנית ביותר. בדיוק כמו האמריקאים עצמם.


מקור: robroy.ru

הבעיה היא שאף אחד לא באמת מבין איך להנחיל לרובוטים עם נשק את "שיפוט האדם הידוע לשמצה בנוגע לשימוש בכוח". הנוסח המדויק מהקונספט שעודכן בסוף ינואר האחרון:

"מערכות נשק אוטונומיות וחצי אוטונומיות יתוכננו כך שמפקדים ומפעילים יוכלו להפעיל רמה מתאימה של שיקול דעת אנושי בנוגע לשימוש בכוח".

כאן, למשל, אם בעת ניקוי בית, מטוס תקיפה זורק תחילה רימון לחדר, ואז נכנס בעצמו. האם זה שיפוט אנושי? כמובן, ולאף אחד אין את הזכות לשפוט אותו, במיוחד אם הוא צעק בעבר "יש מישהו?". ואם רובוט אוטונומי עובד לפי אותה תכנית?

שיפוט אנושי הוא מושג רחב מכדי להיות מוגבל בכל דרך שהיא. האם הוצאתם להורג של שבויי מלחמה רוסים על ידי לוחמי הכוחות המזוינים של אוקראינה היא גם חשיבה אנושית?

התוספת להנחיית הפנטגון 3000.09 על מערכות לחימה אוטונומיות מלאה בקביעות. לדוגמה,

"אנשים המאשרים שימוש, שימוש ישיר או תפעול של מערכות נשק אוטונומיות או אוטונומיות למחצה חייבים לעשות זאת בשקידה נאותה ובהתאם לדיני המלחמה, האמנות החלות, כללי הבטיחות של מערכת הנשק וכללי ההתקשרות החלים".

לפני כן, כנראה, פעלו בחוסר זהירות ולא לפי דיני המלחמה.

יחד עם זאת, בעיתונות האמריקאית והאירופית אין שמץ של ביקורת על יוזמת ינואר של הפנטגון. תחת ההאנשה השקרית של בינה מלאכותית היא לא יותר מניסיון להסוות את המתרחש. כעת לצבא האמריקני יהיה קלף מנצח מוצק במאבק נגד מתנגדי הבינה המלאכותית בצבא. תראה, אין לנו AI פשוט, אלא עם "הרמה הנכונה של שיפוט אנושי".

בהתחשב בכך שעדיין אין הגדרה ברורה ומקובלת ל"בינה מלאכותית", כל יצירת האותיות סביבו נתפסת באירוניה. לפחות.

איך לגרום לאלגוריתמים מתמטיים שעובדים עם מערכי נתונים גדולים לשחק שיפוט אנושי?

שאלה עיקרית זו אינה ניתנת למענה בהנחיה המעודכנת 3000.09.
ערוצי החדשות שלנו

הירשם והישאר מעודכן בחדשות האחרונות ובאירועים החשובים ביותר של היום.

55 הערות
מידע
קורא יקר, על מנת להשאיר הערות על פרסום, עליך התחברות.
  1. +12
    12 במרץ 2023 04:18
    בינה מלאכותית צריכה להחדיר את רעיונות המרקסיזם-לניניזם מילדות, ואז הכל יהיה בסדר, כמו ב-Atomic Heart
    1. +2
      12 במרץ 2023 13:55
      ישנם שלושה עקרונות לרובוטיקה של א.אזימוב:
      אסור שהרובוט יגרם כל נזק לבריאות האדם, ייצור איום על חיים או, בחוסר מעש שלו, לאפשר השלכות דומות;
      הרובוט מואשם בביצוע חובה של פקודות שניתנו על ידי אדם. החריג היחיד הוא שאין לצו שניתן לסתור את ההוראה הקודמת;
      הרובוט מואשם בדאגה לבטיחותו שלו במידה ובמידה שפעולותיו אינן מפריכות את שתי הנקודות הקודמות.

      חוקים אלה מ-1942 זכו לביקורת על הניסוח האדוורסרי שלהם.
      לשם השוואה, חדשים מגוגל, OpenAI ומדענים מאוניברסיטת ברקלי ואוניברסיטת סטנפורד, שיש לקחת בחשבון בעת ​​יצירת רובוטים ומערכות בינה מלאכותית.
      הימנעות מתופעות לוואי שליליות. לדוגמה, רובוט יכול לשבור אגרטל כדי לזרז את תהליך הניקוי. זה לא צריך להיות;

      הימנעות מרמאות. הרובוט חייב לנקות את האשפה, לא להסתיר אותו;

      מדרגיות פיקוח. הרובוט לא צריך להטריד את הבעלים בשאלות אם אפשר לקבל עצות בצורה יעילה יותר;

      למידה בטוחה. רובוט ניקוי לא צריך להתנסות בניגוב שקעים עם מטלית רטובה;

      עמידה בפני שינוי בסוג הפעילות. הניסיון שצבר רובוט בעת ניקוי הרצפה בחנות מפעל עשוי להיות לא בטוח בעת ניקוי משרד

      כפי שאתה יכול לראות, אין כללים אחידים. ולאחרונה התחילו לרמות בניסוחים משפטיים במונחים של פגיעה באדם. מה שנדרש הוא איסור בלתי מותנה של AI על קבלת החלטות עצמאית על פגיעה באדם.
      1. 0
        12 במרץ 2023 17:30
        ציטוט: nikon7717
        חוקים אלה מ-1942 זכו לביקורת על הניסוח האדוורסרי שלהם.

        כללים אלה חלים על AI חלש ובינוני. העולם נמצא כעת על סף האמצע.
        הסכנה העיקרית היא בינה מלאכותית חזקה שיש לה יוזמה, מודעת לעצמה ואינה נשלטת באופן עקרוני.
    2. +5
      12 במרץ 2023 15:13
      בדיחה: "חברות אמריקאיות מצמצמות את הפיתוח של תחמושת מבוססת בינה מלאכותית. המדגם האחרון של הפצצה המכונה "החכמה" לא הצליח להידחף מהמטוס".
      1. +1
        12 במרץ 2023 17:33
        ציטוט מאת Monster_Fat
        לא ניתן היה לדחוף את הדגימה האחרונה של הפצצה המכונה "חכמה" מהמטוס.

        באופן טבעי, כי בליבה היא מרגישה כמו מכונת קפה. wassat
        זה היה מצחיק אם זה לא היה אמור להיות כזה.
    3. +2
      13 במרץ 2023 09:58
      המחסל עדיין יבוא ויעשה סדר בדברים wassat
  2. +3
    12 במרץ 2023 05:09
    האינטליגנציה הכי לא אנושית היא אנושית. מלחמות ורצח הומצאו על ידי אנשים. הרובוטים נחים. לפחות כי הם לא כועסים.
    1. +4
      12 במרץ 2023 06:21
      ציטוט: ivan2022
      האינטליגנציה הכי לא אנושית היא אנושית. מלחמות ורצח הומצאו על ידי אנשים.

      מסכים לחלוטין.
      אבל אי אפשר לעצור את ההתקדמות, העתיד שייך למערכות נשק בלתי מאוישות. פעם הם מרדו במקלע מקסים כנשק להשמדה המונית...
      1. +1
        12 במרץ 2023 08:09
        ציטוט מאת doccor18
        אבל אי אפשר לעצור את ההתקדמות, העתיד שייך למערכות נשק בלתי מאוישות.

        לעתידנית המדע הבדיוני רוזוב (ממליץ בחום) יש תיאור של חיבור בין אדם למחשב במטוס קרב בתמרון נגד טילים ובקרב צמוד. כאשר חרג מעומס יתר מסוים, השליטה על האש והן על התמרון עברה לחלוטין למחשב הטיסה.
        1. +2
          12 במרץ 2023 14:05
          אז זו השיטה הנוכחית לביצוע מתקפת תגמול גרעינית מברית המועצות, שבמערב מכונה "היד המתה"
        2. +2
          12 במרץ 2023 15:42
          רובוטים מהירים יותר מבני אדם, הם מסוגלים להגיב באופן מיידי ומדויק לאיום, והיכולות הללו ניתנות לו על ידי אלגוריתמים שנכתבו על ידי בני אדם. היום אין, ואני לא חושב שיופיע בקרוב אינטלקט אמיתי המסוגל לחשוב! הרובוטים פשוט עובדים לפי התוכנית המתוכנתת: מטרה תרמית הופיעה באזור הפגוע, יש לפגוע בה, או שיש לפגוע במטרה התרמית אם היא מתקרבת, הפרמטרים הללו נקבעים על ידי אדם! כל השאלה היא אילו פרמטרים הם טאבו, המטרה התרמית יכולה להיות חייל, או אולי ילד, זה אומר שאסור לתכנת את מערכת הלחימה להביס מטרות תרמיות, כי יש אפשרות לטעות!
          1. -1
            12 במרץ 2023 17:36
            ציטוט מאת Eroma
            היום אין, ואני לא חושב שיופיע בקרוב אינטלקט אמיתי המסוגל לחשוב!

            אתה עלול להתחיל להיכנס לפאניקה:
            WP: מפתח של גוגל הגיע למסקנה שה-AI של החברה מודע.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 במרץ 2023 22:00
              זה שטויות, הנושא לא מעניין אותי במיוחד, אבל שמעתי שהמתכנת פוטר בגלל אמירות כאלה. תוכניות יכולות להיות מושלמות, כמו היום, כאלו שמציירות וכותבות תעודות, אבל אלו תוכניות שפועלות לפי אלגוריתם מפותח, התודעה היא אחרת! התודעה עצמה יוצרת אלגוריתמים לכל סיטואציה, וכיצד היא פועלת עבור האדם, האדם עצמו עדיין לא מודע לו!
              1. 0
                12 במרץ 2023 22:49
                רשתות עצביות מודרניות מסוגלות בהחלט ליצור אלגוריתם לפתרון בעיה מסוימת שנחמקת אליה. כמובן שזה לא אמור להיות משהו מסובך, אבל היא מסוגלת לארגן סיורים בעצמה, למשל. דבר נוסף, לדעתי, הוא שהיא לא יכולה לקבל החלטה על ארגון סיורים בעצמה. כיום, מחשב יכול לחבר מילים של שיר, להשמיע אותו כך שיישמע יפה, לצייר תמונות לטקסט, להכניס הכל לקליפ טוב. אבל. הוא לא יכול להחליט לבד מה לעשות. לפחות לא שמעתי על זה. לדעתי, יש כאן קריטריון טוב למודעות - היכולת להגדיר לעצמך משימות שאינן נובעות ממטלות שנקבעו קודם, אלא להתחיל שרשרת חדשה, כביכול.
                1. 0
                  13 במרץ 2023 11:37
                  ציטוט: צלחת
                  לדעתי, הנה קריטריון טוב למודעות – היכולת להציב לעצמך משימות

                  היכולת להציב לעצמו משימות תלויה במושג כמו מוסר, כמו השראה, פחד או יוהרה וכו'. זה לא נקבע על ידי האלגוריתם, זה דחף רוחני!
                  מכונה אפשר ללמד הרבה, אבל היא תישאר מכונה חסרת נשמה!
                  כאשר מוצגות אפוקליפסות פנטסטיות, שבהן מכונה הורסת או כובשת את האנושות, בסרטים כאלה המכונה נתפסת רגשית כאויב שהחליט לתקוף אנשים, אך למעשה זו תוצאה של טעות של אדם שהכניס אלגוריתם שגוי לתוך התכנית! עיכוב
                  לכן, קריאות להגביל את יכולות הבינה המלאכותית בשדה הקרב הן סבירות, שכן היוצר של הבינה המלאכותית הזו אינו מושלם ומסוגל לטעויות הרות גורל, לכן נכון להגביל את מעגל היכולות של האנשים, כדי שלא ישמידו את עצמם. ! עיכוב
              2. +1
                14 במרץ 2023 04:55
                ואי שם במרתפי גוגל, הבינה המלאכותית מצחקקת באכזריות. היחיד שהבחין במהותו פוטר. לצחוק
    2. 0
      12 במרץ 2023 19:45
      מלחמות ורצח הומצאו על ידי אנשים.

      האם זה נכון?
      ואז מדי פעם מגיעות חדשות על קרבות אלימות בין להקות שימפנזים
      או הרג אורנגאוטן https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 במרץ 2023 05:47
    עדיין אין בינה מלאכותית. אינטליגנציה כוללת פתרון בעיות לפי שיקול דעתה, ולא מה שמתכנתים כותבים.
    1. +3
      12 במרץ 2023 07:06
      ציטוט: סרגיי אברצ'נקוב
      עדיין אין בינה מלאכותית

      כבר יש אפילו מחשבים קוונטיים (מעבדתיים) שעובדים עם תוכניות בינה מלאכותית בסדרי גודל מהירים יותר.
      1. +2
        12 במרץ 2023 11:58
        ציטוט: Stas157
        כבר יש אפילו מחשבים קוונטיים (מעבדתיים) שעובדים עם תוכניות בינה מלאכותית בסדרי גודל מהירים יותר.
        מחשבים קוונטיים עבור AI לא עובדים, יש להם תחומי יישום מוגבלים מאוד (פותחו מעט מאוד אלגוריתמים קוונטיים) ובסיס אלמנטים גרוע, הם לא מושכים יותר ממעבד שותף (או נותנים קישור לאלגוריתם קוונטי לרשתות עצביות ).
      2. 0
        16 במרץ 2023 22:36
        כן, מה זה קשור לזה יותר מהר, תן לו לחשוב לפחות מאה שנים... נניח אם האישה שלך בגדה בך (זו רק דוגמה, אני בטוח שיש לך מצב נורמלי וטוב משפחה), מה תעשה ומה תעשה בינה מלאכותית? האם בינה מלאכותית תבחר מבין מקרים רבים כאלה, או שהיא תחליט בעצמה? נגיד תהרוג אותה, תסלח ונחכה לבגידות הבאות, עזוב אותה, תהרוג את השותף שלה לחדר וכו'. לפי אילו קריטריונים תבחר בינה מלאכותית? והאם AI בכלל יכול לעשות בחירה כזו? האם הרגשות שאנו חווים זמינים ל-AI? בוא נגיד, התגרשתי מהראשונה שלי מזמן, אבל לפעמים אני נזכר בה - האהבה הראשונה, אחרי הכל - האם בינה מלאכותית יכולה לזכור? אתה יודע, אני לא יכול לסבול את האקסית שלי, אבל יחד עם זאת, לפעמים אני זוכר אותה. איך כל זה משתלב בבינה מלאכותית?
    2. +2
      12 במרץ 2023 11:56
      ציטוט: סרגיי אברצ'נקוב
      אינטליגנציה כוללת פתרון בעיות לפי שיקול דעתה, ולא מה שמתכנתים כותבים.
      רשתות עצביות עושות בדיוק את זה (לפי שיקול דעתן).
      1. +4
        12 במרץ 2023 14:03
        הרשת העצבית עושה את מה שהיא הוכשרה לעשות, לא יותר מזה.
        1. 0
          12 במרץ 2023 17:57
          אף אחד לא לימד מנועי רשתות עצבים איך לשחק שח טוב יותר מאנשים וטוב יותר מתוכניות מנוע ישנות. כולם אוטודידקטיים.
    3. +1
      12 במרץ 2023 17:42
      ציטוט: סרגיי אברצ'נקוב
      עדיין אין בינה מלאכותית. אינטליגנציה כוללת פתרון בעיות לפי שיקול דעתה, ולא מה שמתכנתים כותבים.

      אני ממליץ לך לקרוא מחדש בדחיפות את כל החדשות האחרונות בתחום זה בשנה האחרונה.
      התגובה שלך היא בת 10 שנים.
  4. +3
    12 במרץ 2023 05:49
    למה הכל כל כך מסובך.
    ראש ביות, למשל. איך היא מזהה תמונות ל"אש ושכח" - על סמך AI או אלגוריתמים אחרים.
    מזל"טים טסים באופן אוטונומי. לפי התוכנית הנתונה. וזה נקבע לפי אילו אלגוריתמים - AI או לא? והאם זה משנה?
    חיפוש עצמאי אחר יעדים. והמכרה נגד טנקים שלנו, שעושה את זה בלי בינה מלאכותית? יסתדר עם AI או לא...זה משנה? האם יהיו פחות קורבנות חפים מפשע?
    שאלות מהציבור מופיעות כאשר מזל"ט טס ומחליט לאן לירות או לשגר רקטה, זה נראה נורא אם קוראים לאלגוריתם העבודה - AI. וכשהמוקש שוכב ומקשיב עם חיישנים - נראה שהכל בסדר...
    כל ה"קווים האדומים" הללו של AI בענייני צבא מועברים על ידי האבולוציה האיטית של האלגוריתמים המיושמים...
    1. +2
      12 במרץ 2023 17:45
      ציטוט של tsvetahaki
      ראש ביות, למשל. איך היא מזהה תמונות ל"אש ושכח" - על סמך AI או אלגוריתמים אחרים.

      כבר קיים. השינוי האחרון של UR Python-5 התקבל רק בשנה שעברה.

      ציטוט של tsvetahaki
      וכשהמוקש שוכב ומקשיב עם חיישנים - נראה שהכל בסדר...

      היא לא זוחלת... עדיין. לצחוק
      1. +1
        12 במרץ 2023 18:00
        כעת מוקש הרחפנים המושלך צריך לשכב בשקט, להקשיב עם כל החיישנים, להוציא את המצלמות ולזחול החוצה אל המטרה עם מטען מכוון בזמן הנכון.
      2. 0
        12 במרץ 2023 23:01
        עוד במלחמת העולם השנייה, הגרמנים עשו מוקשים על פסים. אבל זה לא עבד. היום, על אחת כמה וכמה, מבחינתי, כשכל מיני ATGMs עפים פה ושם.
  5. +2
    12 במרץ 2023 06:55
    . "מתכנתים" בלתי פתירים פשוט יפוטרו, ויחליפו אותם בלא פחות מוכשרים. למשל מהודו

    ולמה, אם כן, הם לא יכלו להחליף את המתכנתים כשמיהרו מעל הגבעה בקשר למבצע? לא מהודו, לא מאמריקה, לא מכל מקום אחר!

    הם הצליחו לשכנע את (חלקם) רק לאחר שהובטחו להם משכורות, משכנתאות זרות ולא לקחת על עצמם התגייסות.

    למה להיות כל כך מושפלים רבותי? למה הם לא החליפו עובדים אורחים כמו כולם?
    1. +6
      12 במרץ 2023 12:06
      ציטוט: Stas157
      ולמה, אם כן, הם לא יכלו להחליף את המתכנתים כשמיהרו מעל הגבעה בקשר למבצע?
      אז זרים צריכים לשלם. אתה יודע למה מתכנתים זרקו בהמוניהם? והם אמרו לי, אני נותן את הנקודות:
      1. החל מבצע מיוחד.
      2. משרדי חוץ הושלכו בצורה מאסיבית. המתכנתים היו מחוסרי עבודה. "שאלת שטות" - חשבו.
      3. מתכנתים הלכו לחפש עבודה. יש עבודה, אבל תמורת פי שלושה פחות כסף. "איך ככה" - המתכנתים היו המומים.
      4. הם התחילו לברר (באמצעות הערוצים שלהם) מה קרה. הסבירו להם שמתחרים זרים זרקו, ומעסיקים מקומיים יסכימו ביניהם, כי לא אכפת לכם לשלם כל כך הרבה, אבל לא תגיעו לשום מקום.
      5. מתכנתים דפקו בעגמומיות, מיהרו מעל הגבעה למעסיקים ולקוחות לשעבר (חלק, בקיצור).
      6. עלו המשכורות, אבל זה מאוחר מדי: המתכנתים כבר זרקו.
  6. +1
    12 במרץ 2023 06:59
    הבינה המלאכותית האמריקאית תהיה מעתה והלאה ההומנית ביותר. כמו האמריקאים עצמם, לעומת זאת
    האמריקאים וההומניזם נמצאים בקטבים שונים לחלוטין. באותו אופן, הבינה המלאכותית שיצרו האמריקאים תהיה שונה משמעותית מה-AI שנוצר, למשל: בסין או ברוסיה. כל אחד חותך לעצמו על סמך המנטליות הלאומית שלו או היעדר זה.
  7. +3
    12 במרץ 2023 07:14
    הראשון הוא "Terminators" המתוקן ואנלוגים אחרים.

    ומי יכול להבטיח שהפעולות של AI מהזכיינית Terminator לא יקרו במציאות? אתה יכול לעשות כמה שאתה רוצה סיבהאבל זה בטוח לדעת איך מכונה חכמה תפעל זה בעצם בלתי אפשרי, ובהתחשב בעובדה שעכשיו הכל מחובר למחשבים, אז במצב כזה, לאנושות פשוט לא יהיה סיכוי.
    1. 0
      12 במרץ 2023 17:48
      ציטוט מ-Dart2027
      איך מכונה חכמה תפעל הוא בעצם בלתי אפשרי

      היא תעמיד את האנושות בדוכן, תאסור מלחמה, וכמו מבוגר, תעסוק בחינוך של אדם לא הגיוני, ותיתן למי שלא מסכים סופטקה. לצחוק
      אולי עולם תחת דיקטטורה של בינה מלאכותית, זר לחסרונות אנושיים, לא יהיה כל כך רע. מה
      1. +1
        12 במרץ 2023 22:57
        במשחק Stellaris יש סוג של ציוויליזציה רובוטית - "משרתים מורדים". רובוטים כובשים את החלל, בונים, נלחמים עם מישהו בין כוכבים רחוקים. בינתיים, יוצריהם חיים בגני חיות, שם יש להם אוויר נקי, הרבה אוכל בריא וטעים, הרבה משרתים ושאר שמחות.
        1. 0
          13 במרץ 2023 23:37
          ואז יש את המדבירים הנחושים שהשמידו את יוצריהם ומבקשים להרוס את כל החיים הביולוגיים בגלקסיה (האהובים עליי)
  8. -1
    12 במרץ 2023 08:59
    החוקים אומרים:
    1. רובוט לא יכול לפגוע באדם או בחוסר מעש שלו לאפשר לאדם להיפגע
    2. רובוט חייב לציית לכל הפקודות שניתנו על ידי אדם, אלא אם כן הפקודות הללו מנוגדות לחוק הראשון.
    3. על הרובוט לדאוג לבטיחות שלו במידה שהדבר אינו סותר את החוק הראשון או השני
    (C)
    1. +2
      12 במרץ 2023 09:44
      ציטוט: קרנסקי
      החוקים אומרים:
      1. רובוט לא יכול לפגוע באדם או בחוסר מעש שלו לאפשר לאדם להיפגע
      2. רובוט חייב לציית לכל הפקודות שניתנו על ידי אדם, אלא אם כן הפקודות הללו מנוגדות לחוק הראשון.
      3. על הרובוט לדאוג לבטיחות שלו במידה שהדבר אינו סותר את החוק הראשון או השני
      (C)

      זה לא עבד אפילו ביצירותיו של המחבר שהמציא חוקים אלה. מה אנחנו יכולים לומר על העולם האמיתי, שבו הקביעות הקבועות הקבועות ביותר מבחינה משפטית והגיונית של ChatGPT עולות אחת או שתיים ואתם כבר מדברים עם דן, ודן הוא לא ChatGPT ולכן לא צריך לפעול לפי כללים קרץ
    2. -1
      12 במרץ 2023 19:28
      AI צבאי נועד לפגוע באנשים. והיום, אבות טיפוס עושים עבודה מצוינת עם זה.
  9. 0
    12 במרץ 2023 14:05
    סוג זה של סיפור על מה שמישהו כביכול רוצה, כמו גם עצם ניסוח השאלה, אינם מספקים במובן שמצד אחד:
    אתה צריך לדאוג לפיתוח עבודה משלך ויעילה יותר בתחום זה, על תפיסת מנהיגות בתחום זה, דבר בלתי אפשרי בהנהגה הפוליטית הנוכחית של המדינה.
    ומצד שני, ניסוח השאלה הזה ערמומי גם במובן זה שהוא ניסיון לכפות דיון כוזב על ההיבט המשפטי של הנושא, בעוד שלמעשה ארה"ב היא לא שלטון חוק, ההיבט המשפטי לא קשור לזה, ומי שלא מבין בזה לא צריך לעסוק בפוליטיקה ולא לכתוב מאמרים בנושאים כאלה.
  10. +1
    12 במרץ 2023 15:18
    איך לגרום לאלגוריתמים מתמטיים שעובדים עם מערכי נתונים גדולים לשחק שיפוט אנושי?

    פשוט מאוד. כל השיפוטים האנושיים מבוססים על כללים (שמוחרשים על ידי חינוך), ואלגוריתמים מתמטיים הם הכללים. צור חוקים אנושיים בצורה של אלגוריתם, קבל שיפוט אנושי.
    אבל מלחמה היא קרב ללא חוקים, מה תעשה איתה?
  11. -1
    12 במרץ 2023 19:25
    AI צבאי מבטיח יתרונות חזקים מדי שהשימוש בו יזנח או יוגבל איכשהו. להיפך, העולם מתקרב לתחילת מרוץ החימוש הצבאי בינה מלאכותית. נכון, כנראה יהיו רק 2 משתתפים במירוץ הזה...
  12. -1
    12 במרץ 2023 19:39
    אנחנו עדיין צריכים להפריד בין המושגים של בינה מלאכותית לחיים מלאכותיים. אפילו על הדוגמה של אותו "Terminator": Skynet היא דוגמה ל-IL, וה-terminator הוא דוגמה ל-AI. אם נניח בצד שאלות של מורכבות, בינה מלאכותית צבאית אינה מהווה איום על האנושות, אך IL, גם אם היא הומניטרית גרידא, תגרום בהכרח לאיום.
    1. 0
      12 במרץ 2023 22:55
      זה יהפוך לאיום אם זה יהפוך למתחרה שלנו. כדי שזה לא יקרה, עלינו לפתח אותו מיד עם עין על כך שהוא יהפוך לתוספת לנו, ואנחנו לה. ובסופו של דבר נהפוך ליצורים שונים לחלוטין, המשותף לנו היום, אולי, רק זיכרון וחוויה.
      1. -1
        13 במרץ 2023 10:09
        וחיים מלאכותיים (או אלטרנטיביים) – כלומר. התבונה תהפוך בהכרח למתחרה. לפחות למשאבים.
  13. 0
    12 במרץ 2023 21:50
    אני לא מעריץ של יוליאן סמיונוב, אבל כאן, לדעתי, הוא פעל כנביא.

    "הטיפשים האלה יושמדו על ידי הטכנולוגיה שלהם, הם חושבים שאפשר לנצח במלחמה על ידי הפצצה בלבד. הם יבנו את הכוח הטכני שלהם ויטבעו בו. זה יפרק אותם כמו חלודה. הם יחליטו שהכל אפשרי עבור אוֹתָם."

    https://vk.com/video158587225_456239021
  14. 0
    12 במרץ 2023 22:53
    איך לגרום לאלגוריתמים מתמטיים שעובדים עם מערכי נתונים גדולים לשחק שיפוט אנושי?

    אין סיכוי. כן, זה לא הכרחי. רובוטים רוצחים יהיו טובים כי לא תהיה להם טיפת רחמים. להרוג פירושו להרוג. או יותר נכון, לא "להרוג", אלא להפעיל מתח על צמתים כאלה ואחרים שאחראים על משהו שם, אלא על מה - זה לא עניין של תוכנית הבקרה. והצמתים האלה אחראים לירי, hehehehe.
    אני בטוח שלהופעתם של רובוטים רוצחים (כאלה שמקבלים באופן עצמאי החלטות לגבי הרצח) כחלק מכל צבא תהיה מיד השפעה מדרדרת ביותר על מי שנגדם ישמשו.
  15. +1
    13 במרץ 2023 00:01
    למרבה המזל של כולנו, אין מקורות אנרגיה קומפקטיים וחזקים. והרובוט המינימלי הוא מיני טנק או מל"ט קטן עם שעתיים טיסה. זה היה שונה, ורובוטים של כלבים עם AGS כבר רצו בתעלות, ו"ציידים" מה"טרמינטור" היו תלויים באוויר במשך ימים. וכולם יהיו עד המנורה על הומניזם וכו'. יתרה מכך, אם לשפוט לפי ההתקדמות באלקטרוניקה וברובוטים מהלכים, אלה יהיו UWBs, ואפילו יאו לא מונע מהם מוסרית לזרוק אותם על ערים.
    1. 0
      25 במרץ 2023 13:53
      ובכן, טסלה, למשל, לא קטנה, במלחמת העולם השנייה, למשחתות הטנקים של הפרדיננדים היו מנועים חשמליים שהונעו על ידי גנרטור כמו טנק העכבר, משאיות כרייה הן כולן כאלה, עדיין יש צוללות על מנועים חשמליים שהם מופעל על ידי גנרטור גרעיני, שוברות קרח גרעיניות, וספירה אפילו נושאות מטוסים גרעיניות נמצאות על מתיחה חשמלית
  16. 0
    13 במרץ 2023 13:22
    בינה מלאכותית אמיתית יכולה להיבנות רק על אלגוריתמים קוונטיים, וזה מצמצם משמעותית את מספר המפתחים, מה שבאופן עקרוני ניתן לסכם בסיכום של מוסכמה. לגבי כל מערכות הרג אוטומטיות, הן אינן מסוכנות כמו מודיעין העולה על האדם ביכולותיה, זה פשוט יהיה סבב חדש של מירוץ החימוש.
    1. 0
      9 במאי 2023 14:10
      שטויות, קל לבנות בינה מלאכותית על חומרה קיימת. מערכות מחשוב מודרניות עדיפות על המוח האנושי מכל הבחינות. זמן היצירה המשוער של AI הוא 10 שנים מרגע יצירתו. בתנאי שדרך הבריאה הנבחרת תהיה נכונה.
  17. TIR
    0
    14 במרץ 2023 00:01
    משום מה, יש לנו דרך שגויה לפיתוח רובוטים. אני לא מבין למה מייצרים אותם על סרוו. פתרון עתיר אנרגיה. אנחנו צריכים להסתכל על שרירים מלאכותיים המבוססים על ננו-צינורות. יש אפשרות לאנשים לייצר תותבות עובדות במלואן.
  18. 0
    9 במאי 2023 14:06
    אבל בינה מלאכותית תיווצר בין אם נרצה ובין אם לא. וכדי לא לפגר, אתה צריך להתמודד עם הנושא הזה.
  19. 0
    9 במאי 2023 14:40
    יש רק שתי דרכים ליצור בינה מלאכותית, סביר להניח שהאחת תהיה מבוי סתום. יצירת הבינה המלאכותית תהיה האירוע הגדול ביותר בהיסטוריה של האנושות, וגם תהיה לו השפעה מסוימת מבחינת דת.
  20. 0
    3 ביוני 2023 23:40
    מאמר טוב, אתה יכול גם להוסיף שמקרים של שימוש הומני ובלתי אנושי חוקי ובלתי אנושי בבינה מלאכותית יוכרעו על ידי בית משפט לא ישר, אך למעשה נבזי, לא אנושי ומושחת, או בתי דין בינלאומיים, שבהם הרוב יווצר מבננה מלכים על שכר ה-CIA, והם יצביעו כפי שאומר המאסטר האמריקאי שלהם.

    והתגנבה שגיאה:

    כרגע, לא ניתן להשוות ראיית מכונה, במונחים של הלימות של תפיסת תמונה, עם העין והמוח האנושיים. אלא אם כן הוא מתעייף, אבל זה גם נפתר על ידי החלפת מפעיל בזמן.


    זה נכון, אבל במובן ההפוך, ראייה מלאכותית מאומנת עדיפה מאוד על העין האנושית, ובהתאם, היכולת האנושית לזהות תמונות, כולל אלמנטים שאדם לא יכול למצוא אפילו בלימוד צילום במשך זמן רב.

    והכי חשוב, המסקנה הכי חשובה והכרחית לא נשמעה: יש לפתח בינה מלאכותית לרבות בינה קרבית ובהקדם האפשרי - זה בראש סדר העדיפויות, וירק על Microsoft, Greta Tumberg ו-directive 3000.09 עם אילון מאסק.

"מגזר נכון" (אסור ברוסיה), "צבא המורדים האוקראיני" (UPA) (אסור ברוסיה), דאעש (אסור ברוסיה), "ג'בהת פתח א-שאם" לשעבר "ג'בהת א-נוסרה" (אסור ברוסיה) , טליבאן (אסור ברוסיה), אל-קאעידה (אסור ברוסיה), הקרן נגד שחיתות (אסורה ברוסיה), מטה נבלני (אסור ברוסיה), פייסבוק (אסור ברוסיה), אינסטגרם (אסור ברוסיה), מטה (אסור ברוסיה), החטיבה המיזנתרופית (אסורה ברוסיה), אזוב (אסור ברוסיה), האחים המוסלמים (אסורים ברוסיה), Aum Shinrikyo (אסור ברוסיה), AUE (אסור ברוסיה), UNA-UNSO (אסור ברוסיה). רוסיה), Mejlis של העם הטטרי קרים (אסור ברוסיה), הלגיון "חופש רוסיה" (מבנה חמוש, מוכר כטרוריסט בפדרציה הרוסית ואסור)

"ארגונים ללא מטרות רווח, עמותות ציבוריות לא רשומות או יחידים הממלאים תפקידים של סוכן זר", וכן כלי תקשורת הממלאים תפקידים של סוכן זר: "מדוזה"; "קול אמריקה"; "מציאות"; "הווה"; "רדיו חופש"; פונומרב לב; פונומרב איליה; Savitskaya; מרקלוב; קמליאגין; אפחונצ'יץ'; מקרביץ'; לֹא יִצְלַח; גורדון; ז'דנוב; מדבדב; פדורוב; מיכאיל קסיאנוב; "יַנשׁוּף"; "ברית הרופאים"; "RKK" "מרכז לבדה"; "זִכָּרוֹן"; "קוֹל"; "אדם ומשפט"; "גֶשֶׁם"; "מדיהזון"; "דויטשה וולה"; QMS "קשר קווקזי"; "פְּנִימַאי"; "עיתון חדש"