透視生物科技系列之三 機械人AI尋腦瘤 定治療方案

創新科技幫助醫療診斷。有初創企業仿效外國研發神經外科手術機械人,透過人工智能(AI)為腦神經病人找出腫瘤位置,再計劃治療方案,協助醫生更精準及穩定地做手術。該機械人暫未取得歐美安全驗證,未做臨牀測試,曾試用機械人的醫生指系統能否加快診斷尚待臨牀實踐證明。 導航控制手術工具 減手震問題 法國公司2007年研發全球首個手術機器人輔助系統ROSA,觸發術康醫療國際有限公司(前稱鋒沿醫療科技有限公司)的人員研究。該公司創辦人王德峰指出,其手術機械人可分析電腦掃描和磁力共振等影像的數據,找出腫瘤位置,並計劃治療方案;另設導航功能可助控制手術工具,減低人手操作時手震或集中力不足的問題。該機械人亦可記錄手術過程以助研究,並會追蹤手術工具,顯示工具距離手術目標位置等,以確認手術與計劃的治療方案一致,若有偏差會即時通知醫生。 未取歐美安全驗證 尚待臨牀證明 王德峰的團隊剛開發了神經外科、骨科及口腔科共3款專科手術機械人,正待歐盟及美國安全驗證,其後尚要經本港醫院倫理委員會通過,方可臨牀試驗。王指2016年開始與威爾斯醫院腦神經外科合作,試用機械人分析數據,但未試做手術。他指機械人收集影像數據後,最快約1分鐘便可找到出事神經位置,約10分鐘可定治療方案,「如在頭部哪個位置開刀,過程中如何避免傷及其他組織及神經等」,減少術後創傷,但他沒提供試用數據。 王德峰續指出,若機械人通過驗證及臨牀試驗,機械人原則上可自行做手術,「但控制機械人的仍是醫生,因為醫生須為病人負責」,機械人只是可提高手術準確度和節省時間。他又稱,機械人主要材料來自內地或自己研發,每部估計約需100萬人民幣,低於逾千萬元的ROSA。 醫生:可將數據影像相融 治療更安全 中文大學腦(神經)外科專科醫生名譽臨牀副教授朱獻倫指出,腦神經手術的精準度要求很高,部分目標腫瘤僅約1毫米,比芝麻更細小,需透過影像找目標位置,而腦部有好多神經,手術要避免傷及正常神經,要精確找到目標,並以最安全及創傷最小的方法治療,惟現有軟件未必可分析所有影像,有時要人手操作,或影響精確性,上述機械人可將不同數據和影像相融,令治療計劃更安全有效。 曾試用上述機械人雛型的朱獻倫表示,感覺其速度較快,但不同病症尋找及治療目標的方法不同,時間長短有異,機械人可否加快尋找目標和設計治療方案,尚待臨牀實踐證明。 臨牀部門引入新技術須經審核 威爾斯親王醫院表示,該院腦外科曾與王德峰合作研究手術導航系統,該系統暫未在臨牀應用;腦外科目前無常規化使用機械人。就引進新醫療程式及科技,院方有嚴謹審核機制,臨牀部門如擬引入新技術及儀器作臨牀用途,須先由聯網科技諮詢委員會評估及審核有關技術及儀器的安全性及有效性等。

Read more

中大研AI辨瘜肉 準度達醫生97%

【明報專訊】大腸癌是本港常見癌症,亦是第二號癌症殺手,篩查及切除大腸瘜肉,可減瘜肉演變成大腸癌風險。現時醫生以內窺鏡檢查大腸,以肉眼找瘜肉,中文大學研發一套人工智能(AI)輔助診斷系統,盼在照大腸鏡時,實時分辨出大腸有沒有瘜肉,以及瘜肉屬腫瘤抑或非腫瘤性,結果在醫生肉眼覓出的301顆瘜肉中,人工智能系統找出當中291顆,即比人眼少了3%。 蒐全球5萬數據供分析 現時醫生可透過內窺鏡檢視腸壁,以作大腸癌篩查,如發現有瘜肉便會切除及化驗,才知該瘜肉是否屬腫瘤;而檢視腸壁時,醫生單憑肉眼或會遺漏不明顯的瘜肉,有時或會出現誤判瘜肉病理。中大外科學系、內鏡中心助理教授潘頌欣表示,其團隊研發一套人工智能診斷系統,在腸鏡檢查時,實時識別瘜肉和將病理類型分類。潘教授說,團隊在世界各地蒐集超過5萬個數據,按其特徵及種類分門別類,建立一個數據庫後,再透過先進學習技術「深度學習」及「遷移學習」,建立一套人工智能系統分析每一幀圖像,評估每顆瘜肉。 團隊去年在威爾斯親王醫院收集約300組、有清晰病理標註的結直腸內窺鏡視頻,當中醫生憑肉眼檢測出301顆瘜肉,人工智能系統則檢測到291顆瘜肉,分辨準確率達醫生的97%。團隊另找來兩名患者臨牀測試,證明可達實時分析速度。 可同時分析瘜肉是否腫瘤性 潘又稱,現有計算輔助系統只能單一地判斷有沒有瘜肉,或屬腫瘤性或非腫瘤性,要切除瘜肉組織後做病理化驗,等約兩星期才有結果。上述新系統可同時做以上分析,醫生可實時看到瘜肉,包括一些不顯眼及少發現的瘜肉類別,同時可診斷瘜肉是否屬腫瘤性,有助醫生果斷地即時決定是否切除瘜肉,降低遺漏或誤判病理的風險,提升效率。 設初創公司 盼一兩年推出市場 潘表示團隊已成立初創公司,計劃將技術轉化為商業使用,期望一兩年後正式推出市場。系統正等待國際認證,現處於試驗階段,集中提升其準確度等技術,盼日後能助醫生提升醫療效率及減低成本。

Read more

【了解肺癌】中大AI讀CT圖 30秒辨早期肺癌 準確率逾九成 冀兩年後港醫院應用

【明報專訊】香港中文大學工程學院開發以人工智能(AI)深度學習系統,判讀電腦斷層掃描(CT)及病理組織切片等醫學影像,並針對肺癌及乳腺癌的影像做研究,結果發現利用人工智能判讀此兩種癌症的醫學影像,準確率分別達91%及99%,識別過程只需30秒至10分鐘,較傳統肉眼診斷省時。團隊指研發結果獲得醫學界正面回應,期望產品兩年後可應用於本港醫院。 深度學習系統似AlphaGo 中大計算機科學與工程學系教授王平安解釋,智能深度學習(Deep Learning)系統是指電腦模仿人類大腦,將所蒐集的數據,再根據操作員或醫生的指示和講解,將數據分析,從而按操作員的修改等動作再自行學習,改善程式內容,原理類似智能下棋程式AlphaGo,會自行依數據思考及分析。 每次數百張CT圖 肉眼讀費時費神 王平安指,早期肺癌多以肺小結節的形式出現,即肺部出現陰影,現時醫生主要透過胸腔CT圖像做檢查,但每次檢查都會產生數百張圖像,需花長時間用肉眼逐張觀察,非常費神。其團隊採用深度學習技術判讀CT掃描影像,結果發現只需30秒,便可自動識別出肺部陰影位置,準確度達91%,而肉眼檢查約需5分鐘。 王平安表示,一般乳腺癌要通過乳房X光造影或MR掃瞄檢測硬塊位置,醫生需切取活組織樣本,再用顯微鏡拍攝圖像,檢測淋巴結轉移,但每幅圖解像度極高,令檢測過程費時費力。團隊為此開發了一種新的深層疊卷積神經網絡,分階段處理乳腺癌切片圖像,先作較粗略但能保持高靈敏度的快速預測模型,重構出更精密而準確的預測結果,最後定位並挑選含淋巴結轉移的圖像。整個過程只需約5至10分鐘,準確度達98.75%,而靠肉眼則需15至30分鐘,準確度亦較前者低約兩個百分點。 與3北京醫院合作開發產品 中大計算機科學與工程學系博士研究生竇琪稱,智能深度學習可協助醫生觀看掃描圖像,當發現可疑圖像時,系統便會通知醫生。團隊5年前展開相關實驗,年花約300萬元,並多次就有關實驗參與國際學術比賽。今次肺癌和乳腺癌的研發數據來自多個國家、共逾3500名病人,研發結果亦在國際學術比賽中名列前茅,獲醫學界正面回應,現聯同3間北京的醫院合作開發相關產品,為癌症早期診斷和治療提供可靠數據,亦開始與本港公立醫院洽商,期望兩年後技術可在本港醫院應用。 專題系列文章

Read more