Зашиването на пациент след операция е жизненоважна, но монотонна задача за медиците, често изисква от тях да повтарят еднакви прости движения над стотици пъти.
Но благодарение на съвместните усилия между Intel и Калифорнийския университет в Бъркли, утрешните хирурзи ще могат да се разтоварят от тази монотонна работа и да я поверят на роботи, пише изданието Engadget, цитирано от БГНЕС.
Екипът на Университета в Бърли, ръководен от д-р Аджай Танвани, разработи полуконтролирана система за задълбочено обучение AI, наречена Motion2Vec. Тази система е предназначена за гледане на хирургични видеоклипове, извършвани от действителни лекари, детайлизиране на движенията на медика при зашиване (поставяне на игла, изваждане и отстраняване) и след това ги имитира с висока степен на точност.
„Има много привлекателност при ученето от визуални наблюдения, в сравнение с традиционните интерфейси за учене по статичен начин поради огромното количество информационно съдържание, налично в съществуващите видеоклипове“, каза Танвани пред Engadget. Когато става дума за преподаване на роботи, една снимка, очевидно, струва хиляда думи.
„YouTube получава 500 часа нов материал всяка минута. Това е невероятно хранилище, набор от данни", добави д-р Кен Голдбърг, който ръководи лабораторията на Университета в Бъркли и съветва екипа на Tанвани в това проучване. „Всеки човек може да гледа почти всеки един от тези видеоклипове и да го осмисли, но в момента робот не може - те просто го виждат като поток от пиксели. Така че целта на тази работа е да опитате и да осмислите тези пиксели. Тоест да гледате видеоклипа, да го анализирате и да можете да сегментирате видеоклиповете в смислени последователности".