# 01_分析・統計:長期的データ基盤と予測エンジンの全貌 本ドキュメントでは、`project_tc` の時刻データを JSONL 形式で蓄積し、年単位のログから生活の法則を導き出すための全アイデアを網羅する。 ## 1. JSONL データ基盤の詳細設計 Markdown の「読みやすさ」と、プログラムの「解析しやすさ」を両立するためのデータ構造。 - **エントリの網羅性**: - `date`: 実行日 (YYYY-MM-DD) - `task`: タスク名 (エイリアス解決済みの ID) - `start`, `end`: 24時間表記の時刻 - `dur`: 実績時間 (分) - `memo`: 自由記述メモ(ここが AI 分析の宝庫となる) - `location`: 実行場所 (GPS, SSID等から推測可能なら) - `mood/effort`: ユーザーが任意で残した主観評価 - **JSONL の利点(再定義)**: - **年単位のログ**: 1日 20 タスクでも年間 7,300 行。JSONL なら 10 年分(7万行超)でも数 MB 程度。 - **ストリーミング分析**: AI が「3年前の同じ時期」を検索する際、ファイル全体をロードせずに行単位で高速スキャン可能。 ## 2. 統計に基づく「予言」と「適正化」 蓄積されたデータに基づき、AI が計画そのものを「忖度」して書き換えるアイデア。 - **見積もり (Estimate) の動的補正**: - 直近 5〜10 回の移動平均を算出し、`estimate` を自動提案。 - **特殊ロジック**: 「月曜日の午前中のピアノ練習は、平均より 15 分長くかかる」といった曜日特性を考慮。 - **生活のボトルネック特定**: - 「皿洗いの時間が 20 分を超えると、その後のリラックスタイムが 30 分短くなる」といった相関関係を提示。 - 「皿洗いを 15 分で切り上げる工夫(例:食洗機の活用提案)をしましょうか?」 ## 3. ルーチン・マイニング (Routine Mining) デイリーログの「ただの文字列」から、あなたの生活を構成する「習慣の種」を掘り起こす。 - **検知ロジック**: - 直近 14 日間で、3 回以上同じキーワードを含む非リンク・タイトルのタスクが出現。 - **提案シナリオ**: - 「『🦁の勉強』が頻発しています。これはもう立派なルーチンですね。`[[🦁Learning]]` ノートを作って、彼の『やる気スイッチ』がどこにあるか、ログを溜め始めませんか?」 ## 4. 科学的エビデンスによる「最適シーケンス」 現代科学(睡眠、脳科学、栄養学)の知見と、あなたの実データをガッチャンコさせる。 - **順序の再定義**: - 「データによると、あなたはジョギングの直後に開発をすると、コードの品質(メモの密度)が上がっています。明日はこの順番を逆転させないようにしましょう。」 - 「昼食直後の 14 時は、常に完了まで 1.5 倍の時間がかかっています。この時間は思い切って『単純な皿洗い』だけにするのはいかがですか?」