آفتابنیوز : به گزارش راشاتودی، هنری کیسینجر در مطلبی که در مجله آتلانتیک با تیتر آخرالزمان، چطور روشنگری پایان مییابد هشدار داد که هوش مصنوعی ممکن است جهان را به جایی برساند که در آن انسانها دیگر قادر به فهم هیچ چیزی نباشند و ما باید از همین الان خودمان را برای این خطر آماده کنیم.
او این مطلب را با محوریت پرسشهایی نظیر اینکه چه میشود اگر ماشینها ارتباط با یکدیگر را یاد بگیرند و پس از آن شروع به تعیین اهدافی برای خود کنند و اینکه چه میشود اگر آنها به حدی باهوش شوند که تصمیمهایی ماورای ظرفیت ذهن انسان بگیرند، نوشته است.
کیسینجر میگوید علاقهاش به بحث هوش مصنوعی و همینطور زنگ خطر درباره این مساله برای او زمانی پدیدار شد که فهمید یک برنامه کامپیوتری توانسته در یک بازی به نام "Go" که حتی از شطرنج پیچیدهتر است، به تسلط و استادی کامل برسد.
چیزی که درباره این ماشین جالب بوده این است صرفا از طریق تمرین دادن خودش توانسته در این بازی تسلط پیدا کند و به گونهای رفتار کرده که از اشتباهاتش درس گرفته و بر مبنای آنها الگوریتمهای خودش را باز تعریف کرده و درنهایت مفهوم "تمرین باعث تکامل میشود" را عملی کرده است.
کیسینجر در این مقاله نوشت: ما در حال تجربه انقلاب تکنولوژیکی فراگیر هستیم که هنوز نتوانستهایم به طور کامل تبعاتش را شناسایی کنیم و ممکن است این انقلاب به جهانی منجر شود که چنان به ماشینهای مبتنی بر اطلاعات و الگوریتم متکی باشد که دیگر در آن خبری از هنجارهای اخلاقی و فلسفی نباشد.
کیسینجر این مورد را با ذکر مثال یک اتومبیل خودران مطرح میکند.
او میگوید راندن یک خودرو نیازمند قوه قضاوت برای شرایط غیرقابل پیشبینی است.
او میپرسد اگر چنین خودرویی در موقعیتی قرار بگیرد که مجبور به تصمیمگیری کشتن پدربزرگ و یا کشتن یک کودک شود چه تصمیمی خواهد گرفت و چه کسی را و به چه علت انتخاب خواهد کرد.
او در ادامه این مقاله مینویسد: هوش مصنوعی خیلی فراتر از به اصطلاح اتوماسیونی است که ما به آن عادت داریم چون هوش مصنوعی قابلیت تعیین اهداف را برای خود دارد که آن را به صورت ذاتی بیثبات میکند. به عبارت دیگر هوش مصنوعی از طریق فرایندهایش کاملا قادر به تولید قابلیتی برای خودش است که تا پیش از آن تصور میشود که صرفا مختص به انسانها است.
به گفته کیسینجر خطر هوش مصنوعی شاید کمی خوش خیم تر از چیزی باشد که فکر میکنیم اما عمده این خطر ناشی از این است که هوش مصنوعی صرفا به خاطر عدم برخورداری ذاتی از پیش زمینه و بافت دستورات انسانی را سوءتفسیر کنیم.
او به یک مورد اخیر اشاره کرد که یک ربات چت کننده به نام Tay که برای یک گفتوگوی دوستانه با ادبیات یک دختر 19 ساله طراحی شده درنهایت در روند گفتوگوهایش به جایی رسید که پاسخهای نژادپرستانه و با تبعیض جنسیتی و بسیار تحریک کننده ارائه داد.
کیسینجر گفت: خطر اصلی این است که هوش مصنوعی مطابق با توقعهایی که انسان مدنظر دارد عمل نکند و این منجر به دور شدن فاجعه بار آن از نتایج درنظر گرفته شده بشود.
همچنین کیسینجر هشدار داد که یک خطر این است که هوش مصنوعی میتواند به جهت مصلحت خودش بیش از حد باهوش شود.
او گفت: به عنوان مثال در بازی کامپیوتری Goهوش مصنوعی توانست دست به یکسری حرکتهای بی سابقهای بزند که حتی انسانها تاکنون نتوانستهاند به آن فکر کنند.
او پرسید آیا این حرکات فراتر از ظرفیت مغز انسان بوده است یا اینکه آیا انسانها اکنون میتوانند حالا که یک استاد جدید آنها را نشان داده بتوانند آنها را یاد بگیرند؟
کیسینجر همچنین این حقیقت را مطرح کرده که هوش مصنوعی میتواند بسیار سریع تر از ذهن انسان چیزی را یاد بگیرد.
او به یک مورد اخیر دیگر یعنی یک برنامه کامپیوتری به نام "آلفا زیرو" اشاره کرد که جوری شطرنج را بازی کرد که هرگز در تاریخ بازی شطرنج سابقه نداشته است و تنها در چند ساعت به سطحی از مهارت در این بازی رسید که انسانها 1500 سال برای رسیدن به این سطح مهارت زمان صرف کردند و آن هم تنها با یاد گرفتن قوانین پایهای این بازی حاصل شد.
کیسینجر نتیجهگیری کرد که این فرایند یادگیری سریع در عین حال به این معنی است که هوش مصنوعی اشتباهات را هم میتواند خیلی سریعتر و در ابعادی بزرگتر از انسان مرتکب شود.
ایسنا