خودروهای خودران به‌زودی تصمیمات اخلاقی می‌گیرند

[ad_1]

در سال‌های اخیر ساخت خودروهای مفهومی خودران چالش‌های زیادی برای دانشمندان و خودروسازان ایجاد کرده که یکی از این چالش‌ها، تصمیم‌گیری منطقی در خودروی خودران است.

پیشرفت فناوری افق‌های جدیدی پیش روی انسان می‌گشاید. چندین سال است که شرکت‌های بزرگی مانند گوگل، فورد و اوبر روی خودروهای خودران سرمایه‌گذاری می‌کنند. پژوهشگران می‌گویند ممکن است در خودروهای خودران، سیستم تصمیم‌گیری بر اساس اصول اخلاقی استفاده شود. توسعه‌ی چنین خودروهایی، سؤال‌های زیادی مطرح کرده است، از جمله تصمیمات مهمی که بالقوه، تعیین‌کننده‌ی مرگ و زندگی هستند.

خودروی خودران

آیا خودروهای خودران باید به هر قیمتی از صاحب خود حفاظت کنند یا اینکه باید آن‌ها را قربانی کرد تا گروه بزرگ‌تری از مردم را نجات دهند؟ اگرچه هیچ پاسخ مشخصی به این سؤال وجود ندارد؛ ولی یک تیم تحقیقاتی در آلمان می‌گوید اخلاق به‌زودی نقش مهمی در نحوه تصمیم‌گیری خودروهای خودران بازی می‌کند. علم نشان می‌دهد که اخلاق انسانی برای مدل‌سازی دقیق، بیش از حد وابسته به شرایط است؛ به این معنی که نمی‌توان شرایط و پیچیدگی آن را به‌خوبی در الگوریتم خودروهای خودران اضافه کرد.

پژوهشگران دانشگاه اسنابروک آلمان معتقدند این همه‌ی داستان نیست. در یک پروژه‌ی واقعیت مجازی، از شرکت‌کنندگان در مطالعه خواسته شده بود سوار بر یک ماشین، در خیابان‌های حومه شهر در شب رانندگی کنند. در سفرهای مجازی آن‌ها، کوبیدن به اشیاء، حیوانات یا انسان‌ها هم در حوادث اجتناب‌ناپذیر، به انتخاب‌های افراد اضافه شد تا بتوان تصمیم‌گیری آن‌ها را سنجید. درنهایت تصمیمات آن‌ها مدل‌سازی و به قوانینی تبدیل شد که ارزش «زندگی» برای هر شیء، انسان و حیوان را  که احتمالا در تصادف دخیل بودند، تعریف می‌کرد.

خودروی خودران آزمایشی گوگل

پروفسور پیتر کنیگ، یکی از نویسندگان این مقاله می‌گوید:

ما می‌دانیم که چگونه تصمیمات اخلاقی انسان را در ماشین‌ها اجرایی کنیم؛ ولی ما به‌عنوان افراد جامعه انسانی هنوز در یک معضل ابهام‌انگیز درمانده‌ایم. اولا باید تصمیم بگیریم که آیا ارزش‌های اخلاقی باید در دستورالعمل‌های رفتار ماشین قرار بگیرند یا اینکه در صورت لزوم، ماشین‌ها هم باید مانند انسان عمل کنند؟

وزارت حمل و نقل و زیرساخت‌های دیجیتال دولت فدرال آلمان، اخیرا ۲۰ اصل اخلاقی برای خودروهای خودران تعریف کرده است؛ اما این قوانین بر اساس این فرض هستند که اخلاق انسانی نمی‌تواند مدل‌سازی شود. آن‌ها همچنین در مورد برخی ادعاهای جسورانه درباره چگونگی عملکرد ماشین‌ها، بحث می‌کنند. آیا باید کودکانی  را که ناگهان به وسط جاده می‌پرند نجات داد یا افراد بزرگ‌سالی که در مسیر پیاده‌رو ایستاده‌اند؟ از نظر آن‌ها به علت این‌که کودک خودش باعث این خطر شد، مقصر است و بزرگ‌سالان در اولویت هستند. اگر چه این استدلال منطقی است؛ اما لزوما به این معنی نیست که یک انسان واقعی در وضعیت مشابه، چگونه عمل می‌کند.

اتومبیل خودران گوگل

مقاله‌های مرتبط:

روش مناسب برای حل این معضل چیست؟ مطالعات دانشگاه اسنابروک پاسخ قطعی نمی‌دهند؛ ولی این پژوهشگران خاطرنشان می‌کنند که «تعداد قابل توجهی از حوادثی که قضاوت اخلاقی در آن‌ها دخیل است، ضرورت وجود سیستم‌های تصمیم‌گیری اخلاقی در خودروهای خودران را ایجاد می‌کند.» 

فقط این خودروها نیستند که باید در مورد آن‌ها فکر کنیم. به احتمال زیاد سیستم‌ها و ربات‌های هوش مصنوعی مسئولیت بیشتری در دیگر شرایط مرگ و زندگی مانند بیمارستان‌ها به عهده خواهند داشت؛ بنابراین به نظر می‌رسد ایده خوبی باشد که چارچوب اخلاقی برای کار با آن‌ها ایجاد و اجرایی شود.

[ad_2]

لینک منبع

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *