• Facebook
  • като
  • Twitter
  • Pinterest
  • LinkedIn
  • Digg
  • Дел
  • Tumblr
  • ВКонтакте
  • Печат
  • електронна поща
  • Flattr
  • Reddit
  • Буфер
  • Обичам това
  • Weibo
  • Джоб
  • Xing
  • Однокласници
  • WhatsApp
  • Менейм
  • Блогър
  • Amazon
  • Yahoo Mail
  • Gmail
  • AOL
  • Newsvine
  • HackerNews
  • Evernote
  • Моето пространство
  • Mail.ru
  • Виадео
  • Линия
  • Флипборд
  • Коментари
  • Вкусно
  • СМС
  • Вайбър
  • Телеграма
  • Абонирай се
  • Skype
  • Facebook Messenger
  • Какао
  • LiveJournal
  • Ямер
  • Едгар
  • Финтел
  • Смесват
  • Instapaper
  • Копирай връзка

В клиниките по света един вид изкуствен интелект, наречен дълбоко обучение, започва да допълва или замества хората в общи задачи като анализиране на медицински изображения. Вече в Масачузетската болница в Бостън „всяка от 50 000 скринингови мамограми, които правим всяка година, се обработва чрез нашия модел за задълбочено обучение и тази информация се предоставя на рентгенолога“, казва Констанс Леман, началник на отделението по образна диагностика на гърдите в болницата.

При дълбокото обучение, подмножество от вид изкуствен интелект, наречено машинно обучение, компютърните модели по същество се учат да правят прогнози от големи набори от данни. Суровата мощ на технологията се подобри драстично през последните години и сега се използва във всичко - от медицинска диагностика до онлайн пазаруване до автономни превозни средства.

Но инструментите за дълбоко обучение също пораждат тревожни въпроси, защото те решават проблеми по начини, които хората не винаги могат да следват. Ако връзката между данните, които подавате в модела, и изхода, който той предоставя, е непроницаема - скрита в така наречената черна кутия - как може да й се вярва? Сред изследователите има нарастващ призив за изясняване на това как инструментите за задълбочено учене взимат решения - и дебат за това какво може да изисква такава интерпретативност и кога наистина е необходимо. Залогът е особено висок в медицината, където животът ще бъде на линия.

И все пак потенциалните ползи са ясни. Например в програмата за мамография на Mass General, настоящият модел на дълбоко обучение помага да се открие плътна гръдна тъкан, рисков фактор за рак. А Леман и Реджина Барзилай, компютърен учен от Масачузетския технологичен институт, създадоха друг модел за задълбочено обучение, за да предскажат риска на жената от развитие на рак на гърдата в продължение на пет години - решаващ компонент при планирането на грижите. В ретроспективно проучване за 2019 г. на мамографии от около 40 000 жени, изследователите установиха, че системата за дълбоко обучение значително превъзхожда сегашния златен стандартен подход при тестов набор от около 4000 от тези жени. Сега подложен на допълнителни тестове, новият модел може да влезе в рутинната клинична практика в болницата.

живот

Що се отнася до дебата за това дали хората наистина могат да разберат системите за дълбоко обучение, Барзилай седи твърдо в лагера, че е възможно. Тя нарича проблема с черната кутия „мит“.

Част от мита, казва тя, е, че системите за дълбоко обучение не могат да обяснят резултатите си. Но „има много методи на машинен език, които ви позволяват да интерпретирате резултатите“, казва тя. Друга част от мита, според нея, е, че лекарите трябва да разберат как системата взема решение, за да го използва. Но медицината е натъпкана с усъвършенствани технологии, които работят по начини, които клиницистите наистина не разбират - например ядрено-магнитен резонанс (ЯМР), който събира данните от мамографията, за да започне с.

Това не отговаря на притесненията на всички лекари. Много инструменти за машинно обучение все още са черни кутии, „които издават присъди без никакво съпътстващо оправдание“, отбелязва група лекари и изследователи в скорошна статия в BMJ Clinical Research. „Мнозина смятат, че като нова технология тежестта на доказване е върху машинното обучение, за да се отчетат неговите прогнози“, продължават авторите на вестника. „Ако лекарите не разбират защо алгоритъмът е поставил диагноза, тогава защо пациентите трябва да се доверяват на препоръчания курс на лечение?“

А сред компютърните учени, които изучават машинно обучение, „тази дискусия за интерпретативността излезе напълно от релсите“, казва Захари Липтън, компютърен учен от университета Карнеги Мелън. Често моделите, предлагани за интерпретируемост, просто не работят добре, казва той, и има объркване относно това, което системите всъщност доставят.

„Имаме хора в полето, които са в състояние да завъртят манивелата, но всъщност не знаят какво правят“, добавя той, „и всъщност не разбират основополагащите основи на това, което правят.“

Инструментите за дълбоко обучение се основават на концепцията за невронни мрежи, първоначално вдъхновени от човешкия мозък и съставени от възли, които действат донякъде като мозъчни клетки. Моделите за дълбоко обучение обединяват множество слоеве от тези изкуствени неврони в обширна мрежа от еволюиращи връзки. И моделите жонглират с данни на нива, далеч надхвърлящи това, което човешкият ум може да следва.

Разбирането как работят моделите има по-голямо значение в някои приложения, отколкото в други. Притесненията дали Amazon предлага перфектни предложения за подаръка за рождения ден на леля ви не са еднакви, например, тъй като притесненията относно надеждността на инструментите, които вашият лекар използва за откриване на тумори или настъпващи инфаркти.

Компютърните учени изпробват много подходи, за да направят дълбокото обучение по-малко непрозрачно, поне за своите връстници. Модел на риск от рак на гърдата, например, може да използва подход на топлинната карта, позволявайки на рентгенолозите да приближат областите от мамографското изображение, на които моделът обръща внимание, когато прави прогноза. След това моделът може да извлече и подчертае фрагменти от текст, които описват това, което вижда.

Моделите за задълбочено обучение могат също да представят изображения на други региони, които са подобни на тези целеви области, а човешките експерти след това могат да оценят избора на машината. Друга популярна техника прилага математика, която е по-разбираема за подмножества от данните, за да приближи как моделът за дълбоко обучение се справя с пълния набор от данни.

„Ще научим повече за това, какви обяснения са убедителни за хората, когато тези модели са интегрирани в грижите, и можем да видим как човешкият ум може да помогне за контролиране и валидиране на техните прогнози“, казва Барзилай.

В Лондон екип от Moorfields Eye Hospital и DeepMind, дъщерно дружество на компанията майка на Google Alphabet, също се стреми да предостави подробни обяснения. Те са използвали дълбоко обучение, за да направят сканиране на пациентски очи. Системата взема триизмерни сканирания на очите, анализира ги и избира случаи, които се нуждаят от спешно препращане - и работи толкова добре, колкото и по-добре от човешките експерти. Моделът дава и оценява няколко възможни обяснения за всяка диагноза и показва как е маркирал частите на окото на пациента.

Като обща стратегия за осигуряване на задълбочено учене в клиниката, „ключът е да се изгради най-добрата система, но след това да се анализира нейното поведение“, казва Анна Голдънбърг, старши учен по генетика и биология на генома в SickKids Research Institute в Торонто, която си партнира с клиницисти да изградят модел, който може да предскаже сърдечни арести. „Мисля, че искаме и двете. Мисля, че е постижимо. "

Модели като Mass General’s и Moorfields са добре проектирани, с лекарски данни и клинични резултати в рецензирани научни публикации и почиват на солидни технически основи. Но малко опити за интерпретативност ще стигнат дотук, казва Липтън.

По-често такива тълкувания не показват реална връзка между данните, които влизат, и това, което излиза. „По принцип хората разглеждат красивите снимки и избират тази, която изглежда като това, което първо са искали да видят“, добавя Липтън. „Все по-често завършваш с хора, които просто хвърлят спагети по стената и ги наричат ​​обяснения.“

Дори компютърните учени да намерят начин да покажат как работи инструментът за задълбочено обучение, лекарите ще имат последната дума дали обясненията са достатъчни. Лекарите не се интересуват само от теоретична точност - те трябва да знаят, че системата работи в реалния свят.

Например, когато лекарите се опитват да забележат малък тумор или ранни признаци на предстоящ сърдечен арест, „фалшивите положителни резултати не са толкова проблематични, защото клиницистите се опитват да избегнат откриването на нещата късно“, казва Голдънбърг. „Но фалшивите отрицания са наистина голям проблем.“ Ако обаче процентът на фалшивите положителни резултати е твърде висок, тогава лекарите може изобщо да не обърнат внимание на системата.

Когато лекарите виждат клиничните фактори, които се разглеждат в системата за дълбоко обучение, им е по-лесно да интерпретират резултатите. „Без да разбират това, те са подозрителни“, казва Голдънбърг. „Те не трябва да разбират как точно работи системата или как работи дълбокото обучение. Те трябва да разберат как системата би взела решение в сравнение с тях. Така че те ще хвърлят някои дела срещу системата и ще видят какво прави тя и след това ще видят дали й се доверяват. "

Дълбокото обучение трябва да започне с анализ на голям брой подходящи съществуващи медицински досиета, казват експертите. В някои случаи, като модела за спиране на сърдечната дейност на Goldenberg, тя казва, че следващата стъпка може да бъде провеждането на проучване, при което „можем да оставим системата да работи, получавайки данни в реално време, но не давайки обратна връзка на клинициста и виждайки разликата между практиката и това, което нашата система предсказва. "

„Преди да насочим твърде много пръста си към ИИ, трябва да разгледаме всички други наши практики, които са узрели с фалшиви положителни и фалшиви негативи, както и всички други практики, които са черни кутии, въз основа на публикации, които в действителност малко лекари четат подробно, ”Казва Исак Кохане, биоинформатик и лекар в Харвардското медицинско училище.

Тъй като AI тепърва влиза на практика, той не е виждал същия вид проверка като някои други технологии, добавя Kohane. „И тъй като не изглежда по същия начин като кръвен тест или образен тест, здравната система или регулаторните органи все още не са измислили правилния начин да се уверят, че знаем, че е приемливо безопасно, каквото и да е приемливо.“

Кохане казва, че най-голямото му притеснение е, че никой не знае колко добре работят новите модели. „Трябва да се тревожим повече какво е фалшиво положителен процент и кое е фалшиво отрицателен процент с течение на времето на тези програми“, добавя той, „така че дори и да се използват в черна кутия като останалата част от медицината, те са достатъчно надеждни. "