[ad_1]

به لطف پیشرفت های هوش مصنوعی (AI) و یادگیری ماشین ، سیستم های رایانه ای اکنون می توانند سرطان پوست را به عنوان متخصص پوست تشخیص دهند ، سی تی اسکن سکته مغزی را به عنوان رادیولوژیست انتخاب کنند و حتی سرطان های احتمالی را از طریق کولونوسکوپی به عنوان متخصص گوارش تشخیص دهند. این تشخیص جدید دیجیتال خبره نوید می دهد که مراقبان ما را برای بزرگتر ، بهتر ، سریعتر و ارزان تر در منحنی فناوری قرار دهد. اما اگر آنها دارو را مغرضانه تر کنند ، چه می شود؟

در زمانی که کشور با تعصب سیستمی در نهادهای مهم دولتی دست و پنجه نرم می کند ، ما به فناوری برای کاهش نابرابری های بهداشتی و نه تشدید آنها نیاز داریم. مدت هاست که می دانیم الگوریتم های هوش مصنوعی که با داده هایی آموزش داده شده اند که نمایانگر کل جمعیت نیستند ، معمولاً برای گروه های کم بازده عملکرد بدتری دارند. به عنوان مثال ، الگوریتم های آموزش دیده با عدم تعادل جنسیتی هنگام خواندن پرتوهای ایکس قفسه سینه برای جنس کم بازده عملکرد بدتری دارند و محققان از این به بعد نگران این مسئله هستند که الگوریتم های تشخیص سرطان پوست ، بسیاری از آنها اساساً در مورد افراد با پوست روشن با تشخیص سرطان پوست که بر پوست تیره تأثیر می گذارد ، بدتر کنار می آیند.

با توجه به عواقب تصمیم نادرست ، الگوریتم های پزشکی هوش مصنوعی پر مخاطب باید با مجموعه داده های مشتق شده از جمعیت های مختلف آموزش ببینند. هنوز این آموزش متنوع اتفاق نمی افتد. در مطالعه اخیر منتشر شده در جاما ( مجله انجمن پزشکی آمریکا) ، ما بیش از 70 نشریه را بررسی کردیم که مهارت های تشخیصی پزشکان را در مقایسه با همتایان دیجیتال در چندین زمینه پزشکی بالینی مقایسه می کند. بیشتر داده های مورد استفاده برای آموزش این الگوریتم های هوش مصنوعی تنها از سه ایالت کالیفرنیا ، نیویورک و ماساچوست گرفته شده است.

اعم از نژاد ، جنسیت یا جغرافیا ، هوش مصنوعی پزشکی با تنوع داده ها مشکلی دارد: محققان نمی توانند به راحتی مجموعه های متنوع و گسترده ای از داده های پزشکی را بدست آورند – و این می تواند منجر به الگوریتم های مغرضانه شود.

چرا داده های بهتری در دسترس نیست؟ یکی از بیماران ما ، کهنه سرباز ، یک بار پس از تلاش برای به دست آوردن سوابق پزشکی قبلی خود ناامید شد: “دکتر ، چرا ما می توانیم یک ماشین خاص را در یک کاروان در حال حرکت از آن طرف جهان ببینیم ، اما ما نمی توانیم توموگرافی من را از بیمارستان در سراسر آن ببینیم ؟ “به اشتراک گذاری داده ها در پزشکی برای یک بیمار دشوار است ، مهم نیست که صدها یا هزاران مورد لازم برای یادگیری قابل اعتماد الگوریتم های یادگیری ماشین است. چه در معالجه بیماران و چه در ساختن ابزارهای هوش مصنوعی ، اطلاعات پزشکی در همه جای سیلوهای کوچک قفل شده است.

به اشتراک گذاری داده های پزشکی باید رایج تر باشد. اما قداست داده های پزشکی و قدرت قوانین مربوط به حریم خصوصی ، انگیزه های قوی برای محافظت از داده ها و عواقب جدی برای هرگونه خطای به اشتراک گذاری داده ها را ایجاد می کند. داده ها به دلایل اقتصادی گاهی توقیف می شوند. یک مطالعه نشان داد بیمارستان هایی که داده های مشترکی دارند بیشتر از رقبای محلی بیماران خود را از دست می دهند. و حتی وقتی تمایل به اشتراک گذاری داده ها وجود داشته باشد ، عدم همکاری بین سیستم های پرونده پزشکی همچنان یک مانع بزرگ فنی است. واکنش به استفاده از داده های شخصی با فناوری پیشرفته طی دو دهه گذشته همچنین سایه ای طولانی بر اشتراک اطلاعات پزشکی ایجاد کرده است. عموم مردم نسبت به هر تلاشی برای جمع بندی اطلاعات شخصی ، حتی با هدفی آبرومندانه ، کاملاً بدبین شده اند.

این اولین بار نیست که داده های پزشکی فاقد تنوع هستند. از روزهای اولیه آزمایشات بالینی ، زنان و گروه های اقلیت به عنوان شرکت کنندگان در مطالعه کمتر معرفی می شدند. شواهدی وجود دارد که نشان می دهد این گروه ها فواید کمتری داشته و عوارض جانبی بیشتری از داروهای تأیید شده دارند. حل این عدم تعادل در نهایت به تلاش های مشترک NIH ، FDA ، محققان و صنعت و اقدام کنگره در سال 1993 نیاز داشت. این عملیات تا امروز ادامه دارد. یکی از شرکت های متقاضی واکسن علیه COVID اخیراً از تأخیر در جذب مشارکت کنندگان متنوع تر خبر داد. خیلی مهم است

این فقط دارو نیست. هوش مصنوعی شروع به بازی در نقش یک متخصص آموزش دیده در سایر حوزه های پرمخاطره می کند. ابزارهای هوش مصنوعی به قضات کمک می کنند تا در مورد مجازات تصمیم گیری کنند ، مرکز توجه قانون را تغییر دهند و از مقامات بانکی بپرسند که آیا درخواست وام را تأیید می کنند. قبل از اینکه الگوریتم ها به جزئی جدایی ناپذیر از راه حل های پرمخاطره تبدیل شوند که می توانند زندگی شهروندان روزمره را بهبود بخشند یا از بین ببرند ، ما باید تعصبات داخلی را درک و کاهش دهیم.

تعصب هوش مصنوعی یک مسئله پیچیده است. صرف ارائه انواع داده های آموزشی ، تضمین کننده حذف سوگیری نیست. چندین نگرانی دیگر نیز مطرح شد – به عنوان مثال ، عدم تنوع بین توسعه دهندگان و ابزارهای بودجه AI. قالب بندی مشکلات از دیدگاه گروه های اکثریت ؛ مفروضات ضمنی مغرضانه داده ها ؛ و استفاده از خروجی ابزارهای هوش مصنوعی برای حفظ تعصب ، سهواً یا صریح. از آنجا که به دست آوردن داده های با کیفیت بالا یک چالش است ، محققان در حال ساخت الگوریتم هایی هستند که سعی می کنند با کمتر کار بیشتری انجام دهند. از این نوآوری ها می توان راه های جدیدی برای کاهش نیاز به هوش مصنوعی به مجموعه داده های عظیم پیدا کرد. اما در حال حاضر ، ارائه انواع داده های مورد استفاده برای آموزش الگوریتم ها برای توانایی ما در درک و کاهش سوگیری AI ضروری است.

برای اطمینان از اینکه الگوریتم های فردا نه تنها قدرتمند بلکه عادلانه هم هستند ، ما باید زیرساخت های فنی ، نظارتی ، اقتصادی و محرمانه ای را ایجاد کنیم تا داده های بزرگ و متنوعی را که برای آموزش این الگوریتم ها لازم است ، فراهم کنیم. دیگر نمی توانیم کورکورانه با ساختن و به کارگیری ابزارهایی با داده های موجود ، کور شده توسط روکش دیجیتال و وعده های پیشرفت حرکت کنیم و سپس با ابراز تاسف از “عواقب غیر قابل پیش بینی”. عواقب آن قابل پیش بینی است. اما لازم نیست که اجتناب ناپذیر باشند.

[ad_2]

منبع: khabar-dirooz.ir