Home News آیا یک ربات می تواند در مورد درمان پزشکی من تصمیم بگیرد؟

آیا یک ربات می تواند در مورد درمان پزشکی من تصمیم بگیرد؟

0
آیا یک ربات می تواند در مورد درمان پزشکی من تصمیم بگیرد؟

[ad_1]

در تلاش برای مدیریت افزایش هزینه های مراقبت های بهداشتی ، برخی از مقامات دولتی و شرکت های مراقبت های بهداشتی برای تعیین چگونگی تخصیص مزایای محدود ، چه کسی در ابتدا به ارائه خدمات و یا اینکه آیا شخص به هیچ وجه باید مراقبت کند ، به الگوریتم هایی روی آورده اند.

هدف این ابزارها ممکن است منطقی باشد ، اما منتقدان سیستم های تصمیم گیری خودکار می گویند که می توانند آسیب های خطاها را تقویت کنند و تعصب را با عواقب گاه وخیم تقویت کنند.

چه اشتباهی می تواند انجام شود؟

یک مثال وجود دارد: در سال 2016 ، آرکانزاس به یک ابزار الگوریتمی برای مدیریت مزایای سلامتی برای افراد در برنامه معلولیت ایالتی روی آورد که به برخی از نیازمندان ساکن آن کمک کرد. براساس این برنامه ، مردم می توانند از طریق یک مراقب حرفه ای ، هزینه های ویزیت را بپردازند ، و به آنها اجازه می دهد تا به جای انتقال به یک مرکز مراقبت تمام وقت ، در خانه های خود بمانند. قبل از سال 2016 ، ایالت از تعاریف انسانی استفاده کرده بود: یک پرستار به یک متقاضی مراجعه می کند و سپس مشخص می کند که چند هفته مراقب باید هر هفته مراجعه کند.

ابزار جدید به یک نظرسنجی متکی بود که درمورد توانایی ها و مشکلات سلامتی آنها از افراد ذینفع سؤال می کرد – برای مثال آیا به غذا خوردن یا استفاده از حمام به کمک نیاز داشتند. الگوریتم پس از جمع آوری اطلاعات ، چند ساعت شخص را محاسبه می کند. بسیاری از افراد حاضر در برنامه بلافاصله ساعتهای مراقبتی خود را به شدت کاهش داده اند ، و به نظر می رسد در چندین مورد به اشتباه انجام شد.

پس از طرح دعوی حقوقی از آرکانزاس ، طرفداران حین دادخواست کشف کردند که فروشنده اجرای این ابزار سهواً نتوانسته به درستی از دیابت و فلج مغزی در الگوریتم حساب کند و کمترین میزان اختصاص ساعت برای صدها نفر را کاهش داد. بدون طرح دعوی ، ذینفعان فرصت کمی برای به چالش کشیدن تصمیمات الگوریتم ، حتی اگر نقص داشتند. “الگوریتم می شود مورد“گفت کوین دی لیبان ، کمک حقوقی وکیل آرکانزاس است که دادخواست نهایی را علیه استفاده دولت از الگوریتم انجام داد. “و این یکی از بزرگترین مشکلات می شود.”

ایالت در سال 2019 به یک سیستم جدید منتقل شد ، اما De Liban گفت ارزیابی جدید الگوریتمی مورد استفاده برای تعیین صلاحیت حدود 30 درصد از ذینفعان این برنامه را که قبلاً واجد شرایط بودند ، کاهش داده است.

روند محرمانه و محرمانه بودن

آرکانزاس تنها نیست. ایالت های سراسر کشور از ابزارهای تصمیم گیری مشابه برای تعیین اینکه چه کسی مزایایی دریافت می کند استفاده کرده اند. در نتیجه تعداد انگشت شماری در نتیجه با دادخواست روبرو شده اند. اما گاهی اوقات می توان تعیین اینکه چگونه یک الگوریتم در حال کار است ، کار سختی است ، و این امر باعث می شود که روند کار موقت غیرممکن شود.

در سال 2011 ، آیداهو با استفاده از ابزاری برای تعیین هزینه های مراقبت از خانه ، مشابه برنامه ای که آرکانزاس از آن استفاده می کرد ، شروع کرد. اما پس از راه اندازی این ابزار ، بودجه برخی از ذینفعان تا 42 درصد کاهش یافت.

دولت از افشای فرمول مورد استفاده خودداری كرد ، و گفت كه این “راز تجارت” است ، به این معنی كه هیچ راهی برای یك فرد عادی برای تصمیم گیری این ابزار وجود ندارد. اگر یک ذینفع درخواست تجدیدنظر کند ، یک مقام رسمی “به سیستم نگاه می کند و می گوید ،” این فراتر از اختیار من و تخصص من است که کیفیت این نتیجه را زیر سوال ببرد. “” ریچارد اپپینک مدیر حقوقی ACLU در آیداهو در سال 2018 گفت.

سرانجام ، پس از یک دادخواست ، ACLU از آیداهو در هنگام دادرسی کشف کرد که ایالت به داده هایی اعتماد کرده است که باعث نقص دولت شد و بلافاصله بخش اعظم آن را کنار گذاشت ، اما با این برنامه هنوز به جلو حرکت کرد. نتیجه ، مطابق ACLU ، برنامه ای بود که با تکیه بر داده هایی که منجر به تصمیمات اساساً خودسرانه در مورد مراقبت می شدند ، انجام شود. سرانجام دولت با تغییر سیستم موافقت كرد.

ابزارهای جدید ، مشکلات قدیمی

اما حتی وقتی یک ابزار الگوریتمی همانطور که در نظر گرفته شده است کار می کند ، فرصتی برای نشان دادن سوگیری وجود دارد ، گاهی اوقات به روش های غیر منتظره. به عنوان مثال سال گذشته ، تیمی از محققان یافته های یک مطالعه را بررسی کردند که الگوریتمی را که توسط متخصصان مراقبت های بهداشتی بطور گسترده استفاده می شود ، بررسی کرد. تعصب ضمنی در این ابزار ، میلیون ها نفر را تحت تأثیر قرار می داد ، به این معنی که بیماران سیاه پوست به طور مداوم تحت حمایت نبودند.

این ابزار ، توسط شرکتی به نام Optum ساخته شده است ، برای تعیین اینکه بیماران پیچیده ترین نیازهای پزشکی را دارند و چه کسی بیشترین سود را از افزایش مداخلات پزشکی دارد. برای تعیین این تصمیم ، ابزار به دنبال هزینه های مراقبت از بیماران بود ، بدون احتساب نژاد به عنوان یک عامل. اما به دلایل مختلفی – از جمله دسترسی تاریخی کمتر به مراقبت ، مواجهه با فقر به طور نامتناسب و یا برخورد با تبعیض از پزشکان – بیماران سیاه مزمن مزمن پول کمتری نسبت به بیماران سفید پوست با بیماری های مشابه شدید دارند. طبق این سیستم ، درصد بیماران سیاه پوست که مراقبت های اضافی دریافت کرده اند ، حدود 17.7 بود. محققان دریافتند اگر این ابزار برای از بین بردن تعصب تنظیم شود ، این رقم بسیار زیاد می شود: 46.5 درصد از بیماران سیاه پوست از این پس مراقبت بیشتری دریافت می کنند.

بعدش چیه؟

به نظر می رسد صنعت مراقبت های بهداشتی برای استفاده از ابزاری که می توانند سهام را بالاتر بکشند ، مقدم هستند. هم اکنون محققان در حال مطالعه چگونگی استفاده از هوش مصنوعی برای تشخیص سرطان پوست ، سکته قلبی ، بیماری چشم و … هستند.

محققان حتی مطالعه کرده اند که چگونه می توان از هوش مصنوعی برای پیش بینی احتمال مرگ فرد استفاده کرد ، ابزاری بالقوه مفید برای هدایت مراقبین اما راهی است که پیامدهای خطا یا تعصب به معنای واقعی کلمه ممکن است زندگی یا مرگ باشد.

این مقاله در ابتدا در The Markup منتشر شد و تحت مجوز Creative Commons Attribution-NonCommerce-NoDerivatives منتشر شد. آیا سوالی برای Ask The Markup دارید؟ به ما ایمیل بزنید [email protected]

منتشر شده در 2 ژوئن 2020 – 16:00 UTC



[ad_2]

Source link