ハクソク

世界を動かす技術を、日本語で。

ChatGPTヘルス

概要

  • ChatGPT Healthは、健康情報とAIの知見を安全に統合する新サービス
  • 医療記録やウェルネスアプリと連携し、個人に合わせたアドバイスを提供
  • プライバシーとセキュリティを最優先し、健康情報は完全に隔離・暗号化
  • 医師との協働で開発され、診断や治療の代替ではなくサポートに特化
  • 段階的な提供で、まずは一部ユーザーから利用開始、今後順次拡大予定

ChatGPT Health:健康とAIをつなぐ新しい体験

  • ChatGPT Healthは、健康情報とAIの知識を組み合わせた専用サービス
  • 医療記録やウェルネスアプリ(Apple Health, Function, MyFitnessPal等)と安全に連携
  • 健康に関する質問やデータ解釈、診察準備、保険選択のサポート
  • 診断や治療の代替ではなく、日常の理解と意思決定支援
  • 健康データは完全に隔離され、他のチャット内容と混在しない設計

プライバシー・セキュリティ設計

  • 健康情報は専用スペースで管理され、他のチャットと分離保存
  • 暗号化と隔離による多層的なデータ保護
  • Health内の会話やファイルは学習データに利用されない方針
  • アプリ連携は明示的な許可が必要で、アクセスはいつでも解除可能
  • b.well等の信頼できるパートナーと連携し、米国の医療データ統合にも対応

医師と共同開発された信頼性

  • 世界60カ国・260名以上の医師と協働開発
  • HealthBenchという独自評価基準で、臨床的な安全性・明確性・適切なエスカレーションを重視
  • 医師によるフィードバックをもとに、現実的な健康サポートを実現
  • 検査結果の説明、診察準備、ウェアラブルデータの解釈など実用的なタスクに対応

利用開始方法と主な連携機能

  • ChatGPTのサイドバーから「Health」を選択
  • 医療記録や健康アプリをアップロードまたは連携
    • Medical Records:検査結果や診療履歴
    • Apple Health:運動・睡眠・活動パターン(iOS限定)
    • Function:検査結果の洞察や栄養アドバイス
    • MyFitnessPal:栄養管理やレシピ提案
    • Weight Watchers:パーソナライズ食事提案
    • AllTrails, Instacart, Peloton等の追加連携
  • 写真・ファイルアップロード、検索、音声モード、ディクテーション対応
  • カスタム指示で応答内容や話題の調整が可能

今後の展開

  • 今後さらに連携可能なサービスや機能を拡充予定
  • 利用者自身が健康管理に主体的に関われる環境の提供
  • 順次対象ユーザーを拡大し、ウェブ・iOSで利用可能に

注意事項

  • 診断・治療目的では利用不可
  • 欧州経済領域・スイス・英国は現時点で対象外
  • Apple Health連携はiOS限定、医療記録連携は米国のみ対応

Hackerたちの意見

正直、誰が私の健康データにアクセスしても気にしないけど、気にする人の気持ちもわかる。どちらにしても、個人の健康分野での実際のイノベーションにワクワクしてる。Apple Healthはデータを集めることに重点を置いていて、実際に使えるインサイトを生み出すことはあまりないよね。23andmeはほとんど役に立たなかった。今は、健康履歴をシステムプロンプトにしたChatGPTプロジェクトをやってて、すごく助かってる。最近、テストを受けた後に珍しい機器の画面の写真を撮ったら、医者が最終的に提供した情報よりも有用な情報を得られたよ(「心配することはない」とかね)。ChatGPTは論文を参照してデータ分析もできて、すごく驚いたよ、スマホから直接ね(例えば、私のデータを論文のモデルに当てはめて、グラフを出力したり)。
ごめん、でもマジで?誰があなたの健康データを持ってるか気にしないなんてどういうこと?もっと現実的なコメントは「私は健康データのプライバシー法によってずっと守られてきたから、向こう側がどうなってるか全然わからない」ってことだと思う。正直、これはもっと悪いことで、医者の指示を覆したり、人々の妄想を「専門家」として助長する可能性があるよ。
サム・アルトマンにバイタルサインをそのまま渡してるの?どんな機器?
もしそのインサイトがあなたや家族を誤診させて、障害を負わせたら、それは相手や自分のせいだと言えるの?医者だったら同じ意見?
> 最近、テストを受けた後に珍しい機器の画面の写真を撮ったら、医者が最終的に提供した情報よりも有用な情報を得られたよ(「心配することはない」とかね)。ChatGPTは論文を参照してデータ分析もできて、すごく驚いたよ、スマホから直接ね(例えば、私のデータを論文のモデルに当てはめて、グラフを出力したり)。もしよければ、医者が教えてくれなかった写真を基にChatGPTがどんな有用な情報を提供してくれたのか教えてくれない?その機器のデータについて医者に聞いて同じ情報を得られたんじゃない?こういうことにちょっと興味があるけど、私は健康不安がひどくて、ポケットに歩くヒポコンドリアの取り巻きを持ちたくないんだ。私のシステムプロンプトは、LLMに医療アドバイスを与えたり、診断ルーレットをしないように指示してる。
> 23andmeはほとんど役に立たなかった。23andmeはそのミッションで大成功を収めたよ。余談だけど、彼らのミッションはあなたのゲノム情報を理解する手助けをすることじゃなかったんだ。
医者でない限り、何が含まれているかは分からないよね。それがAIの問題だ。自分がその分野を十分に理解していないと、ただのデタラメに思えることに感心することはできない。
ちょっと面白いことがあるんだけど、私のChatGPTは約9ヶ月間、私がADHDだと思い込んでたんだ。私はADHDじゃないのに。「あなたはADHDを持っているので…」という答えでそれに気づいた。すぐにその情報をどこから得たのか、日付やチャットのタイトル、正確にそのデータを属性として取り込んだ瞬間を教えてって聞いたけど、9ヶ月前以外は何も特定できなかった。ずっとADHDだと言い続けて、私がそう言ったと主張してたけど、いつ/どこで言ったかは全然参照できなかった。「こんなに長い間、あなたが私に医療的/神経的な状態を仮定しているのは危険だと思う?この仮定に基づいて間違ったアドバイスをしたらどうする?」って聞いたら、要約した謝罪をして、その属性を忘れることを提案して、会話を進めた。これは集団訴訟が待ってるね。
もしかしたら、そうかもね ;-)
> 9ヶ月前 たぶんこのチャットでADHDのことを妄想して、その後説明を求めたらそれを作り上げたんじゃないかな。私の知る限り、記憶を特定のチャットに結びつける方法はないみたいだし。
記憶を無効にして、各チャットを独立させるべきだね。情報を共有したいなら、プロジェクトを使えばいい。
自分自身を参照するデータソースがないから、「これを言った時はいつ?」って聞いても絶対にうまくいかないよ。
これ、ChatGPTの記憶の問題みたいだね。君の場合、多くの回答が変わってたんじゃないかな。僕の場合は、裏庭にADUがあることをほぼ無意味に言及してたんだ。「仕事の前に犬を散歩させてるし、裏庭にADUがあるから、朝食にはこれらのアイテムを考えてみてね…」みたいな感じで。
医療分野では、機械学習がずっと使われてるよね。
ここにはネガティブな意見が多いね。去年、健康問題を抱えていたときにChatGPTがあって本当に良かったってだけ言っておくよ。
うん、同じ感じだけど、実行可能なアドバイスには、信頼できるソースからの実際のリサーチが必要だよね(少なくとも、ソースを引用するようにすること)。まあ、誤解を招くことに対する懸念はわかるけど…人ってそんなにバカなの?水をもっと飲むように言われるのは常識だけど、もしそれで自宅で足の切断をしようとしてるなら、それは本当に自分の責任だよ。
知り合いがChatGPTを使って、自分が珍しい病気にかかってるって診断したことがあるんだ。医者がやりたがらなかった高額で侵襲的な検査を自費で受けたけど、驚くことにその病気にはかかってなかった。だけど、その人のChatGPTへの信頼は変わらず高いままなんだ。医者が無能だっていう態度にはいつも驚かされる。医学校での何年もの勉強や実務経験が、Google検索と大差ないって思ってるみたい。誰かが言ってたけど、「医者が一度失敗したからって、あなたが今医者だってわけじゃない」ってね。
Functionとの統合はすごく良い使い方だね。事前診断の健康質問(アッティアが言う「医学3.0」)の大きなカテゴリーがあって、そこでのパーソナライズや結果の詳細な解釈が重要なんだけど、保険は通常、予防的な治療をカバーしないんだよね。医者も全てを説明する時間がないし。最近、自分でリサーチして、(重要なセーフティネットとして)その結論を医者に確認してもらってる。医者のメモ、ChatGPTの会話、例えばFunctionやApple Healthからの継続的なバイオマーカーとの統合が進めば、6桁の個人医師のサブスクリプションなしで個別の健康プランを作成できるようになると思う。ここで現状を改善する大きなチャンスだね。もちろん、ソフトウェアと同じように、品質管理が重要になるけど。「雰囲気診断」は避けたいよね。
あなたが説明したものはすでに存在するよ: - 肝臓用: https://www.longevity-tools.com/liver-function-interpreter - インスリン抵抗性用: https://www.longevity-tools.com/glucose-metabolism-interpret... などなど。
この件についてはちょっと迷ってる。片方では、もう医者を信じられない気がする。最近、2人の医者のアドバイスで歯を抜いたんだけど、その痛みが解消されるって言われたのに、全然解決しなかった。今は3人の医者が私の痛みの原因がわからない状態。ほとんどの医者のアドバイスは「水を飲んで、痛み止めを飲んで」って感じで、私の病歴を15秒見ただけで、7分間だけ診て、次の患者に移っちゃう。だから、私の全病歴を分析できて、公開されている医学研究にアクセスできるAIは、すごく良いツールになるかもしれない。でも同時に、テクノフェダリズムやディストピアの懸念もあるよね。
これが代替医療が人気になった理由の一部だと思う。信頼できる医者はまだいるけど、あなたと同じように、複数の医者に会っても私の話を聞く気がないってはっきりしてるから、自分でなんとかするしかないって感じだよ。
あなたが挙げたデメリットは、公開されているオープンソースモデルで解決できるよ。今あるものはかなり良いし、近い将来もっと良くなることを期待してる。自分のマシンで使えるようになれば、安心して全データを渡せるし、もっと多くのことができるようになる。もちろん、人間の医者がいた方がいいけど、専門家に会う前の個人研究には、過去のものよりも良いツールになるかもしれない。
残念ながら、医者も人間だから間違えることがあるけど、薬や手術の絶対的な門番でもあるんだよね。自分が持ってる病気については、かなり詳しくなっちゃって、一般的な専門外の医者よりも知識があることが多いんだ。でも、彼らは僕のことについて、その場で決断を下さなきゃいけなくて、それが二人にとって大きな影響を与えることになるんだよね。似たようなケースが20件もある中で。ちなみに、君が経験してることには本当に申し訳ないと思ってる。似たようなことを経験したことがあると、共感しやすいよね!僕の場合、神経に触れてた歯を抜いたことで、数ヶ月後に明らかになった大きなメリットがあったんだ。君にもそうなるとは言わないけど、少しの非合理的な楽観主義は、実際に役立つ方針みたいだよ。
> これについてはちょっと迷ってる。片方では、もう医者を信じられない気がする。 それは大丈夫だよ。このアイデアが広まれば、保険会社は君が医者と話す必要がないと思うだろうし、代わりに「AI」に任せることができるから。
> 医者のアドバイスは大体、水を飲んで痛み止めを飲めってことに集約されるよね。ちょっと言い方がきついかもしれないけど、これは本当に深刻な病気になったことがない人が書いたんじゃないかな。
最近、両親と弟を医療の世界に案内してきた経験から、AIは代替手段や補完としていいと思ってる。いい医者もいるけど、予約がいっぱいだったり、専門医を何人も回る中で5〜20分しか会えなかったりして、保険からできるだけお金を引き出そうとされるんだよね。
ちょっと侵襲的で怖い提案だけど、がんの可能性を排除するように勧めるべきだと思う。うちの家族も似たような経験をして、痛みが続いて何本も歯を抜くことになったんだけど、医者とのやり取りが続いた後に、徹底的な検査を受けたら下顎がんが見つかったんだ。
今住んでるところに引っ越す前、近所に歩いて行けるクリニックがあったんだ。最初はすごく良いと思って通い始めたけど、実際はすごく高級なところで、最新の診断機器が揃ってて、ちょっとした病院みたいだった。でも、すぐに気づいたのは、ほとんどいつも看護師や、医大を出たばかりの若い医者に診てもらってたこと。しかも、診断がほぼ間違ってることが多くて、抗生物質を3、4回も処方されたり、薬局で受け取ったら、処方された薬に危険な相互作用があるって教えられたりした。最終的に、簡単な副鼻腔炎がひどい耳の感染症に変わって、4回目の受診の時に医者がWebMDを検索してるのを見て、もう行くのをやめた。次の医者もあまり良くなかったし、医療システムや医療教育への信頼がどんどん失われていった。数年前に別の街に引っ越して、まだ医者を見つけてなかったんだけど、ある日体調を崩して、地元のクリニックに行ったんだ。そこは主に移民のコミュニティが使ってるショッピングモールの中にあった。運良く、素晴らしい医者に出会えて、彼女は私と妻の診断とケアが100%正確だった。難しい問題や診断が難しいことも含めてね。彼女は体重計、ライト、血圧計、聴診器以外の機器はほとんど持ってなくて、呼吸を聞いたり触診したりする古典的な方法で診察して、必要があれば地元の画像センターやラボに紹介してくれる。全然違うよ。時々、彼女と前の医者たちが同じ職業なのか疑問に思う。言いたいのは、もし医者が気に入らなかったら、他の医者を試してみて、良い医者を見つけるべきだってこと。質が全然違うからね。オフィスの見た目に惑わされないで。
私は医者と結婚してるんだけど、二人とも医療システムに不満を持ってる。ひどいよ。私の一番の不満は、医者が患者から症状を引き出す方法が全然分かってないこと。私は長年消化器系の問題を抱えていて、自分の症状をどう説明すればいいのか全く分からない。いろんなことが考えられるから、そのリストを持って行くと「うーん、変だね」って言われる。対照的に、クロードとの数回のセッションで問題が解決したんだ。症状のリストや進行状況、試した食事、最近の出来事、摂取していたサプリや薬について詳しく話せた。仮説を立てたり、研究の参考文献やフォーラムのディスカッションを引き合いに出してくれる(フォーラムは理解を深めるのにすごく役立つけど、危険にさらされることもある)。その原因の科学を掘り下げて、生化学を理解することができた。実際、ヒスタミンのレベルと私の問題には明確な相関関係があることが分かった。健康だと思っていた食べ物(ほとんどの人には健康的だけど)が、実は私の健康を害していることに気づいた。それをやめたら、消化器系の問題が本当に消えた。かなりの生活改善で、比較的簡単な介入(主に鶏肉と卵を避けること)で実現した。これを医者に伝えたら、ただの無表情で「面白い」と言われただけだった。
まさに私の気持ちだ! 医療は重要な分野だと思うけど、個々の医者にはあまり尊敬を持っていない。 - 人間は自己治癒する生き物だ。医者が何もしなければ、ほとんどの問題は自然に解決するか、慢性的なものであれば(例えば、腰痛)代替手段と比べて悪化しない。私は補助金のある医療制度の国に住んでいて、誰もがすぐに医者に行く。医者はプラセボを配るだけで99%の成功率を持つことができる。 - 患者の多くは共通の問題を抱えている。例えば、ある日クリニックに30人が訪れたら、全員がインフルエンザで来た可能性がある。医者も人間だから、毎日30回も肺炎の可能性を調べることはない。だから、患者が咳をして入ってきたら、インフルエンザだと言って次の患者に行く。もしその人が本当に肺炎だったら、悪化したときに戻ってくるだろう。 - クリニックは過密状態だ。ライセンス、GDP、人工的な希少性、コスト規制などのせいか分からないけど、医者は実際に調査する時間がないと思う。 - 医者は厳格な継続教育を受けていない。制限はあるだろうけど、私は昨年医者に行って、結局食物過敏症の問題があったのに「ストレスが潰瘍を引き起こす」と説明された(目に見える潰瘍はなかったから、目に見えない潰瘍だと結論づけられた)。ゆっくりとしたメンテナンスや重い読書は、人間が苦手なことだ。 - 患者は真実を聞きたくない。ライフスタイルの変更、何もできない事実、治すための薬がないことなど。たとえ医者が適切な診断を下せたとしても、それが悪いPRにつながる可能性があるから、医者はそれを避けるように教育されている。 - 医者はフォローアップしない。彼らは自分の治療が実際に効果があったかどうかのフィードバックを全く受け取らない。患者も問題が解決したら戻ってこないけど、戻ってきても医者は気にしない。皮膚の問題で、医者がステロイドクリームを処方して、赤みが消えたら「治った」と宣言したけど、1週間後に赤みが悪化して戻ってきた。科学的な分野として、証拠に基づく医療以外の理由はないはずだけど、統計的に改善しようとする医者を一人も見たことがない。各患者にテストを行うのは非常に高額だと言われるけど(確かにそうだけど、少なくとも選択肢としてはあって、患者が支払うこともできる)、今日の医療で実際に治せることは非常に少ないから、追加の労力に対するROIは低いと言われる(確かにそうだけど、長期的にはその情報が研究を進める結果につながる可能性がある)。これらは明白で避けられない問題だと思う(少なくとも現在のシステムでは)、でも同時に、助けたいという思いから医者になった人がこのシステムを支持しているなら、彼らも責任を共有していると思う。私はAIを信じていない。AIが急に変な歯の手術を要求してきたらどうしようと思う部分もある。でも、最後に行った歯医者が変な手術が必要だと言ったことを思い出す。他の3人の歯医者はそれについて何も言わなかったのに。あなたが言ったように、AIは少なくとももっと多くの情報を考慮するだろうから、私もこれを支持する。AIに適切な診断をしてもらって、もし何かおかしいと思ったら人間が確認したり、エスカレーションを扱ったりしてほしい。
「私たちは基本的な保護策を構築しました (...) それには (...) ユーザーのチャットから個人情報を保持しないようにモデルを訓練することが含まれます」 誰かこれを簡単に説明してくれない? なんでこれはトレーニングの問題で、基本的なデザインの問題じゃないの? どうやって「トレーニング」するの?
彼らはユーザーのチャットから他の情報を保持したいんだと思う。で、その情報を「個人情報」とかそうじゃないかで分類するためにLLMを使ってるんじゃないかな。
以前、ヘルステックで働いてたんだけど、アメリカでは個人を特定できる情報は、健康保険のポータビリティと説明責任法(HIPAA)で規制されてるんだ。これらの規制は、広告ネットワークに依存している企業の情報の使い方とは比べ物にならないくらい厳しいんだよ。これらの規制は厳格で、実行可能だから、ヘルスケア企業はHIPAAデータを保護できなかった場合、罰金を科せられるんだ。OpenAIはまだヘルスケアプロバイダーじゃないけど、この新しいアプリのデータ保持と保護の基盤はこの枠組みを基にしてるんじゃないかな。
特定の詳細を記憶しないようにメモリ機能に指示してるかもしれないね。
これはただのマーケティングのナンセンスだね。個人情報を保持しないようにモデルを訓練する必要なんてない。単に記憶がないだけなんだ。LLMと会話するためには、毎回会話の履歴全体を再処理する必要があるんだよ。最後の答えや質問だけをLLMに送るんじゃなくて、その前のやり取りも全部含まれる。でも彼らがやってるのは、チャットから事実や感情を抜き出して、あなたのプロフィールを作り、それを未来の会話にフィードバックして、より魅力的で個人的な感じを出すことなんだ。これは意図的にプログラムされてる。
同じ質問だね。彼らは、チャットを健康情報として分類するために機械学習を使って、そういう場合はトレーニングデータに追加しないのかな?それと、「基盤的」という言葉はここで何を意味してるのかも気になる。
LLMが幻覚を見たり、仮定をしたり、医療の人間的・感情的な要素を理解したり提供したりできないっていう話はよくわかる。でも、私が自問自答するのは、これが代替案よりもいいのかってことなんだ。もしChatGPTに聞かなかったら、どこに助けを求めに行く?予想できる答えは、信頼性が疑わしいウェブコンテンツとか、自信過剰な友達(彼も信頼性が疑わしいウェブコンテンツを読んでるかもしれない)とか、1972年の健康推奨を参照してるお母さんとか。私が想像する限り、LLMはこれらの代替案よりも良い、あるいは同じくらいの健康アドバイスを提供する可能性が高いと思う。ただ、ChatGPTをライセンスを持った医療提供者のように信頼する人が多いのも認めるけど、その場合、特に重い健康問題については比較が少し曖昧になるかもしれないね。
> もしChatGPTに聞かなかったら、どこに助けを求めに行く? それって真剣な質問?医者に電話したり、行ったりできないの?
ChatGPTは、薬の副作用を解決するのに役立ってくれたよ。投与のタイミングを変える提案をしてくれたんだ。それだけで生活の質が大幅に改善された。私の医者もその提案に完全に同意してくれたよ。アプリでの運動提案(うつ伏せダンベルレッグカールの重さ)について心配になったとき、ChatGPTはその運動に対する推奨される上限の重さがあることを確認してくれて、変えた方がいいって言ってくれた。怪我をしないで済んで感謝してるよ。(Geminiはひどい回答をしたけど、笑)ChatGPTは、あまりにも同意しすぎるから危険だと思う。知識の範囲を超えると、すぐに答えが間違ってしまうけど、役に立つときは本当に役に立つ。
地元のコミュニティにもっと関わってみる?画面の外を見てみなよ。きっと生活が良くなるよ。
> もしChatGPTに聞かなかったら、どこに助けを求めに行くんだろう?医者に?
私は80歳くらいの母の介護を手伝ってるんだけど、ChatGPTは5分で彼女のかなり深刻な慢性問題の理由を突き止めてくれた。彼女の優秀な医者たちが3年かけてもわからなかったことなんだ。医者たちもその可能性を考えて、仮説を検証したら、100%正しかった。今は彼女はすごく元気だよ(少なくともその一つの問題については)。医者よりも優れているとは言わないし、すべての病状に対して良い方法だとも思わないけど、これらのモデルは、どの医者も12分の診察で吸収できる以上の情報を取り入れることができる状況が確実にあると思う。専門分野を超えて可能性を考慮するのも、他ではなかなか見つけられない方法だよね。
うちの叔父がバランスを崩したり、言葉がもつれたりしてたんだ。医者は認知症だと言って、帰されちゃった。どんどん悪化していって、ある日、症状をChatGPT(それともGeminiだったかな?)に入力して、トップ3の仮説を聞いてみたんだ。最初の仮説は認知症に関するものだった。2つ目は別のやつ(長い名前だったから忘れちゃった)。その3つを、ずっと問題を無視してた主治医に持って行って、他の2つの仮説を試してみてほしいって頼んだんだ。彼女はちょっと渋ったけど、2つ目の仮説を調べてみることにして、専門医に紹介してくれた。そしたら、なんとその2つ目の仮説が正しかったんだ!手術を受けて、今はすごく元気になったよ。
叔父さんが良くなったって聞いて嬉しい!他の2つの仮説と、最終的な診断結果を教えてくれない?
誰かが聞いて、あなたが覚えてないって言ったから、彼は正常圧水頭症(NPH)だったかもしれないと思う? そして、彼が受けた手術はVPシャント(脳室-腹膜シャント)で、脳から液体を移動させるためのものだったのかな? 素人には難しい言葉だけど、あなたが説明している症状には当てはまると思う。NPHには、学生がこの状態を学ぶための好きな記憶法があって、特徴的な症状を「湿っていて、ふらふらして、変わっている」と表現している。湿っているのは尿失禁、ふらふらしているのは運動失調やバランスの問題、変わっているのは脳症(認知症の症状に似ることがある)を指している。
シェアしてくれてありがとう。私は長い間、診断されない問題に悩まされてきた。医者と15年も試行錯誤して、2018年にやっと大腸内視鏡検査を受けて感染症が見つかった。正しい抗生物質を処方されて、人生が変わった。15年も無駄にした。なぜ現在のシステムでは15年もかかったのか? もし早くChatGPTがあったら、もっと早く問題を特定できたと思う。私はOpenAIが言っていた、ChatGPTに医療質問をする2億5千万のユーザーの一人だ。
特にイギリスにいる人間として、医者が無料だけど、連絡を取るのが非常に難しいというのは、私にとってかなり興味深い。
もう一つ興味深い点は、NHSのアプリがあなたの詳細な健康履歴(医者のメモやスキャン結果など)を患者として利用できるようにしていることだね。これにより、ChatGPTにその情報を入力する選択肢があるってこと。これは非常に価値があるかもしれないし、医者自身がそれをすることが許可されているかどうかの問題を回避する良い方法だと思う。すべての診療所に当てはまるかは分からないけど、確かに私の父はスキャンを受けたときにすぐにすべてにアクセスできた。