2025年における創薬分野でのAI導入の現状
2025.05.21
ChemAxon

Jan C. Christopherson
Adrian Stevens
AIの導入は世界的にますます広がっており、創薬分野もその例外ではありません。AIには大きな可能性がある一方で、現実の運用ではいくつかの課題が存在します。たとえば、AIモデルが幻覚(hallucination)を起こすことや、強い確証バイアスを持つこと、さらにこれらのモデルに機密データを委ねる必要があることなどが挙げられます。
Adrian StevensとJan Christophersonの協力のもと、現在の創薬業界におけるAI活用の動向を把握するために、業界の現状をスナップショット的に捉えました。彼らは最近「Bio-IT World 2025」に参加し、その経験をもとに本ブログ記事を共同執筆しています。
2025年時点で業界がAIの導入についてどのような段階にあるのか――ぜひ読み進めてご確認ください。
左から順に写っているChemaxonチームのメンバー:Adrian Stevens(CPO)、Richard Jones(CEO)、Jan Christopherson(シニアアプリケーションサイエンティスト)
過去数年間における創薬分野のAIの状況
私たちは先日、マサチューセッツ州ボストンで開催されたBio-IT Worldカンファレンスを終えたばかりです。
今回も例年通り、創薬における人工知能(AI)および機械学習(ML)の応用に関する話題が中心でした。過去数年を振り返ると、発表者によってAIに対する姿勢には大きな差があり、非常に懐疑的な立場から、誇張とも言えるほどの楽観主義まで、極端に振れる傾向がありました。そのため、私たち二人も、2025年にはこのテーマがどのように扱われるのか確信が持てずにいました。
2025年における創薬分野のAI
今年は、AI関連の講演に明らかな変化が見られました。
注目すべきは、依然として懐疑的・楽観的という両極の雰囲気は残っていたものの、多くの発表者が人工知能を実際に意味のある形で応用しようと真剣に取り組んでいた点です。基調講演のキックオフから最終日のパネルディスカッションや個別発表に至るまで、全体を通して3つの重要なメッセージが浮かび上がっていました。
2025年における創薬分野でのAI活用に関する主要なテーマは、以下の3点でした:
- AIモデルの利用と構築における民主化
- 企業内における中央集権的なガードレール(指針)の整備
- AIモデルの出力に対する透明性と説明可能性の必要性
創薬におけるAIエージェントの活用
生成AIアシスタントとの連携を通じて、科学者やデータサイエンティストの作業をどのように支援しているかについて語る発表者が、今年は大幅に増加していました。
特に、次のようなワークフローで大きな影響が見られました:
- 文書作成の補助
- POC(概念実証)アプリケーションの作成を容易にすること
- データの検索およびクエリ実行の効率化
最後のポイントは特に興味深いものです。大規模言語モデル(LLM)が、多くの企業に散在するデータサイロから情報を見つけ出すというチームの困難を大幅に軽減し、FAIRデータ(Findable, Accessible, Interoperable, Reusable)へのアクセスの障壁を下げた可能性があるためです。多くの発表で、AIモデルの性能向上のためにRAG(Retrieval-Augmented Generation)が積極的に活用されていました。
Certaraによる創薬分野のAI活用事例
私たちの同僚であるSean McGeeが登壇し、Certaraが提供するソリューションについて紹介しました。発表では、AIが研究者の業務をいかに支援できるかに焦点が当てられました。
中心となったのは、DMTA(Design-Make-Test-Analyze:設計-合成-試験-解析)サイクルにおけるデータループをいかに閉じるかという課題、非構造化データから化学情報を抽出する将来的な展望、そしてGPTの出力を説明可能にするためにD360のようなシステムをクエリ・可視化ツールとして活用するアプローチでした。
Novartisによる創薬分野のAI活用事例
製薬業界を代表する形で、NovartisのRishi Guptaによる講演は、大規模言語モデル(LLM)の現実的な応用が実際に進みつつあることを示す好例となっていました。
彼はまず、Novartis社内に蓄積された多数のレポートやプレゼン資料について言及しました。これらは、同社の科学者たちの知見が詰まった未開拓の「知の金鉱」とも言える存在ですが、文書のままでは検索や参照が困難で、実用性に乏しいものでした。しかし、これらをRAGベースのLLMに入力データとして活用することで、その価値が一気に引き出されたのです。
創薬分野におけるAI活用のルール整備
AIの利用に関しては、データのプライバシーや、不適切な使用・アクセスによる潜在的なリスクについて、十分な対応が求められます。
特に、大規模言語モデルやエージェント型ワークフローの導入が広がる中で、中央集権的なガードレール(利用指針)の整備が不可避であることが明らかになってきました。こうした取り組みのいくつかは、無秩序だった過去の「西部開拓時代」的なAI運用からの脱却を実現しつつあります。
特に効果的だと考えられる取り組みとして、以下のような実践が挙げられます:
- 大規模言語モデル(LLM)のオンプレミスでの導入
- 意思決定における機械予測の関与レベルを定めるリスクプロファイルの策定
- 高リスク業務に用いる特定のモデルの検証プロセスの実施
AIの透明性向上
AIを活用する科学者にとって、そのモデルの透明性は、信頼性と追跡可能性を確保する上で不可欠です。たとえば、関連する論文や社内データソースへのリンク、裏付けとなるデータを示すクエリ、学習データに含まれる類似した低分子構造などが、透明性を高めるための代表的な例です。
まとめ
AIの導入とクラウド技術の導入との間には、興味深い共通点が見られました。どちらも長い時間をかけて準備が進み、その後ごく短い期間で一気に普及したという点です。
重要なメッセージは、両者の導入を前向きに受け入れることです。そして忘れてはならないのは、クラウドがデータセンターを完全に置き換えるのではなく補完するものであるのと同様に、AIも科学者の仕事を補強するものであって、彼らを置き換えるものではないということです。