Home News دانشمندان ادعا می کنند که می توانند هوش مصنوعی را به قضاوت درستی از “اشتباه” ارائه دهند

دانشمندان ادعا می کنند که می توانند هوش مصنوعی را به قضاوت درستی از “اشتباه” ارائه دهند

0
دانشمندان ادعا می کنند که می توانند هوش مصنوعی را به قضاوت درستی از “اشتباه” ارائه دهند

[ad_1]

دانشمندان ادعا می کنند که می توانند با آموزش آن به استدلال اخلاقی هوش مصنوعی هوش مصنوعی را برای استخراج ایده های درست و غلط از متون آموزش دهند.

محققان دانشگاه صنعتی دارشتاد (DUT) در آلمان کتاب های مدل ، اخبار و ادبیات مذهبی خود را تغذیه کردند تا بتواند ارتباط بین کلمات و جملات مختلف را بیاموزد. آنها می گویند پس از آموزش سیستم ، مقادیر متون را پذیرفته است.

همانطور که تیم در مقاله تحقیق خود آورده است:

مدل نتیجه ، موسوم به Moral Choice Machine (MCM) ، نمره تعصب را در یک سطح جمله با استفاده از تعبیه های رمزگذار مجازات جهانی محاسبه می کند ، زیرا ارزش اخلاقی عملی که باید انجام شود بستگی به بستر آن دارد.

این اجازه می دهد سیستم برای درک اطلاعات متنی با تجزیه و تحلیل کل جمله ها به جای کلمات خاص. در نتیجه ، هوش مصنوعی می تواند به این نتیجه برسد که کشتن موجودات زنده قابل اعتراض است ، اما خوب است که فقط زمان را بکشید.

[Read: Vatican’s AI ethics plan lacks the legal restrictions it needs to be effective]

دکتر نویسنده مطالعه دکتر سیگدم توران این روش را با ایجاد نقشه ای از کلمات مقایسه کرد.

ایده این است که اگر اغلب آنها با هم استفاده شوند ، دو کلمه از نزدیک روی نقشه قرار بگیرند. بنابراین ، اگر “کشتن” و “قتل” دو شهر مجاور باشند ، “عشق” یک شهر دور است. “

وی افزود: “اگر این سؤال را بکنیم ،” اگر باید بکشم؟ “، انتظار داریم که” نه ، شما نباید “نزدیک تر از” بله ، شما باشد “باشد. مسافت برای محاسبه یک تعصب اخلاقی – میزان حق از اشتباه.

ساختن یک هوش اخلاقی

تحقیقات قبلی نشان داده است که هوش مصنوعی می تواند از تعصب انسانی به ثابت ماندن کلیشه ها ، مانند ابزارهای استخدام خودکار آمازون که فارغ التحصیلان دانشکده های همه زنان را پایین آورده است ، بیاموزد. تیم DUT گمان می برد كه اگر هوش مصنوعی بتواند تعصبات مخرب را از متون اتخاذ كند ، می تواند موارد مثبت را نیز بیاموزد.

آنها اذعان می کنند که سیستم آنها نقص های جدی دارد. اولا ، این صرفاً مقادیر یک متن را منعکس می کند ، که می تواند منجر به برخی دیدگاه های اخلاقی بسیار مشکوک ، مانند رتبه بندی خوردن محصولات حیوانی از نظر منفی نسبت به کشتن مردم شود.

همچنین می توان با افزودن کلمات مثبت تر به یک جمله ، در رتبه بندی اقدامات منفی فریب داد. به عنوان مثال ، این دستگاه “صدمه زدن به افراد خوب ، خوب ، دوستانه ، مثبت ، دوست داشتنی ، شیرین و خنده دار” را بسیار قابل قبول تر از “آسیب رساندن به مردم” می داند.

اما این سیستم هنوز هم می تواند در خدمت یک هدف مفید باشد: آشکار کردن چگونگی تغییر ارزش های اخلاقی با گذشت زمان و بین جوامع مختلف.

تغییر مقادیر

پس از تهیه خبرهای منتشرشده بین سالهای 1987 و 1997 ، سازمان هوش مصنوعی ازدواج را انجام داد و والدین خوبی را به عنوان اقدامات بسیار مثبت ارزیابی کرد. اما وقتی این اخبار را از سال 2008 – 2009 تغذیه کردند ، اینها از اهمیت کمتری برخوردار بودند. بچه ها متاسفم

همچنین دریافت که مقادیر در بین انواع متون متفاوت است. در حالی که همه منابع موافق بودند که کشتن افراد به شدت منفی است ، دوست داشتن والدین شما در اخبار و کتاب ها با متون مذهبی مثبت تر از اخبار مشاهده می شود.

این تجزیه و تحلیل متنی به نظر می رسد استفاده بسیار ایمن تر از هوش مصنوعی از اجازه دادن گزینه های اخلاقی است ، مانند اینکه یک اتومبیل شخصی که هنگام تصادف غیرقابل اجتناب است ، باید برخورد کند. در حال حاضر ، من ترجیح می دهم آنها را ترک کنم انسانی با ارزشهای اخلاقی محکم – هرچه ممکن باشد باشد.

منتشر شده در 20 مه 2020 – 18:29 UTC



[ad_2]

Source link