このウェブサイトはクッキーを使用しています。このサイトを使用することにより、プライバシーポリシーに同意したことになります。

日本

ポジショニング解析開発者インタビュー

AI技術を活用して撮影技術の向上をサポートするポジショニング解析

このコンテンツは医療従事者向けの内容です。

機能の概要を教えてください。

ポジショニング解析を開発したきっかけ

私は約17年にわたりマンモグラフィの画像処理開発に携わってきました。
この間、医師の先生方と画像評価をともに行う機会に恵まれ、ポジショニングの善し悪しによって画像が変わり、病変の見つけ方が大きく影響される経験をしました。

画像の設計や処理も重要で、診断の質を上げるためには必要なことです。しかし、ポジショニングが良くない画像には、どんなに画像処理を頑張っても病変は見つけやすくなりません。そのため、ポジショニング技術の向上をサポートすることで、診断しやすい画像の提供に少しでも貢献できないかと考えました。

また、画像を評価するときは、国内だけでなく世界各国の画像を使用します。乳房の大きさや乳腺量は個人や人種によって大きく異なること、また、国や施設により、ポジショニングの基準が大きく異なることに気づきました。このことより、客観的にポジショニングの善し悪しを評価する指標が必要であると感じ、解決策を模索し始めました。

撮影画像を数値で評価ー技師の苦手や癖を可視化

ポジショニングの評価を指標化することで、技師さんの癖や苦手な部分を可視化し、ポジショニング技術の向上に役立てることができます。

1枚ごとに画像を主観的に評価するだけでは気づかないポイントも、定量的評価を通じて、明確に理解できるようになります。数値化されたデータを統計的に蓄積し、分析結果を活用して、ポジショニング技術をさらにブラッシュアップさせることが可能です。

製品化までの道のり

マンモグラフィの画像からポジショニングの項目を数値化するには、乳房の構造と画像解析を認識させる必要があります。特に、ニップルや大胸筋などを抽出、ポジショニングを評価する際の項目設定が開発の大きな課題でした。

乳房の構造を抽出するために、ディープラーニングというAI技術を導入しましたが、多様な乳房の形や、施設・受診者の差による写り方の違いへの対応は容易ではありませんでした。例えばニップルは、画像上では確認できないケースが多い部位です。しっかりポジショニングがされていても写らないこともありますし、乳房と重なってしまいわかりにくいこともありました。

また、大胸筋の抽出では、大胸筋と似たような構造が写り込むケースが多く、どれを大胸筋として抽出したら良いのかわからないケースが多かったです。特に海外の画像では、広背筋や皮膚のねじれなどが写り込むケースが多く、どこを大胸筋として抽出したら良いか、実際に先生方や技師さんにヒアリングするところからのスタートでした。

ポジショニングを評価する項目の作成も大きな課題でした。
先生方や技師さんは、専門的な知見を持っていて、画像を見て瞬時にポジショニングの善し悪しを判断しています。これを技術的に実現するために、言語化して分解していく作業が必要でした。さまざまな画像を見て、専門家の意見をもとに評価項目を決めていきました。
また、ワールドワイドでの展開を見越し、各国のガイドラインに応じた評価項目を盛り込むようにしています。例えば、「MLOのPNL(胸壁端からニップルまでの距離)はCCより長く10mm以内」というPNL指標は、日本のガイドラインでは具体的に決められていません。そのため、項目ごとにON/OFFできる機能を搭載しました。

以上の努力をとおして、製品化への道のりは困難を伴いましたが、有用性の高いポジショニング解析ツールとして製品化することができたと考えています。

機能の活用について

最後に

ポジショニング解析システムは、撮影画像のポジショニングを数値で評価し、客観的な評価が可能です。技師さんの癖や苦手な部分を可視化でき、ポジショニング技術の向上をサポートします。さらに、ポジショニングの解析に加えて、受診者の情報の記録・共有も可能にし、これによってより質の高いマンモグラフィ検査の実現を期待します。

私達は、このシステムが医療従事者と受診者双方に利益をもたらし、マンモグラフィの品質向上に寄与することを願っています。