mbr-br
mbr-br
mb(ry
1K posts
Don't wanna be here? Send us removal request.
mbr-br · 12 hours ago
Text
あまりにもClaude Codeが恐ろしいので、研究室内の教員同士の定例会議で力説してしまった。なかなかその凄さを伝えるのが難しい(そして年々、最先端のAIの凄さを実際に使っていない人間、特に管理業務に特化した上のポジションの人たち、に分からせるのが難しくなっているのを感じる)のだけども、なんとか問題意識(特に教育について)を持ってもらうことはできたように思う。自分自身、Claude Codeが出た直後はResearch Previewだったこともありあまり食指が動かなかったし、General Accessになってからもしばらくは億劫がって試さずにいたのだけども、Claudeが4になりManusで衝撃を受けたのもあって何とか試すところまで自分を持っていったら、その差異と有用性は火を見るよりも明らかだった。IDE integrationで普段の延長のように気軽に試せるのも良い。
Claude Codeで実際の研究課題の実装や調査をいくつか並行して進めている(これ自体が相当異常なことではある)が、自分がそれほど経験を積んでいない分野だとClaudeの方が技術的な最善策を知っていることは珍しくないので、会話しているとあたかもサーバの中に住んでいるバイオインフォマティシャンのように見える。というより、「バイオインフォマティシャンってサーバにインストールできるんだ…そうだね…その方が人間でいるより効率的だよね…」という気分になってくる。確かによく考えるとバイオインフォマティシャンが人間であるべき理由は多分それほどないので、コンピュータ(computer)が計算手(職業)から計算機(機械)を指すようになったのと同じことが起こっても不思議ではないのかもしれない。
追記: 別の教員から、プログラミングの課題でAIコーディング(=チャットボットに自然言語で用件を伝えてコードを得る)を許すようになってから学生があまりコードを読んでいない、という話を聞いた。それ自体は確かに深刻かつ自分にも当てはまるのだけども、今後コーディングエージェント(≒研究エージェント)を解禁するとそのさらに上を行くので問題の深刻さが上がる。今はまだ月額100ドル(または200ドル)の壁があるので、学生が気軽に手を出せるものではないが…。 しかも物事の変化速度が上がっているので、これまでは1年くらい対処を考えるだけの猶予があったが、今後は半年くらいになりかねない。年度の都合上、変化サイクルが1年を切ると学校としてはかなり苦しい。覚悟はしているつもりだが、今年度末の学位審査(とそれに向けた研究進行)はむちゃくちゃなことになりそうではある。
追記2: なんとかこれまでのAIコーディングとコーディングエージェント(特にClaude Code)の違いを言語化できないかと考えているが、エージェントの方が「うまくいくまで試行錯誤できる」のが大きそうだ。そして研究面においては、これまでのチャットボットとエージェントの違いは「その場でアイデアだけでなくコードまで書いて結果を出せる」のが大きい。もちろん、出てきた結果の解釈と、そこからさらに研究を進めていくプロセスまで全自動とはいかないが、一サイクルが何とかAI単独で回せるのは決定的な違いで、それが超簡単にサーバに入れて使えるというのが今回の衝撃なのだと思う。
0 notes
mbr-br · 5 days ago
Text
ひとつ前の投稿で、Claude Codeが研究エージェントに転用できそうだと書いた。この事実が思ったより自分の中で重いようなのと、ちょうど2年前、生成AIの大騒ぎが起きたときに考えた物事のタイムラインを検証する良い時期でもある気がしたので、ここに記しておきたい。
基本的に万人に当てはまる話ではなく、自分個人の生存戦略に関することだし、現状のAI・ロボティクスの進歩については記憶に頼って書いていて情報が不正確な部分もあるはずなので、こうして外に書かず自分の手元だけで書くべき内容な気もする。が、おそらく後で引用するために外に出しておいた方が良さそうなのでここに置く。
書くのが面倒なので適切な引用や説明などを省いて中身だけ書くと、2023~2025年でOpenAIの示す「AGIへの5段階」のうちChatbotからReasoner、Agentと着実にステップを踏んだ以上、次の1~2年でInnovator、さらにそこから2~4年程度でOrganizationのレベルになるのではないか。ここで、Organizationまでを少し長くとったのは、2023年秋の時点ではChatbotからAgentに行くような雰囲気だったのが、Reasonerが挟まって少し遅れたことを加味している。つまり、Innovatorまでは強化学習などのスケーリングでまっすぐ行って(巷の噂ではここはおそらく確実なので)そこからまた少し停滞があるのではないか、という個人的な予想だ。
Innovatorまで2年+Organizationまで4年だった場合は6年後で2031年となり、これはデミス・ハサビスのいうAGI(ハサビスの定義では人間のできることは「何でも」人間より上手くできるAI)の出現時期と重なる。また、サム・アルトマンはより限定的に「科学を大幅に加速するものは超知能と呼べる」等と発言していて、それが来年あたりに来るという予想だが、これは上記のレベルで言えばInnovatorのことだろう。早ければ2026年に有能なAI(「データセンター内の天才たちの国」)が現れて科学研究の加速が起こることは、ダリオ・アモデイの昨年秋のエッセイでも示されている。
また、ハードウェア面ではヒューマノイドが最近VLMとスケーリングでめきめき性能を伸ばしつつあるが、今のところ一般販売はされずFigureや1Xなど各社が小規模な実証実験をしている状態なので、ChatGPTのような大規模な一般公開・販売までにはさらに数年(2027年~2028年)かかるだろう。つまりAIの5年遅れで進んでいることになる。
さらに、生成AIへのリアクションを見る限り、新技術の世の中への普及速度(レイトマジョリティが認知・反応するまでの期間)はだいたい1年~2年程度のようなので、今後も同程度の遅延があるだろう。ただし、Web越しに安く簡単に使えるAIと違い、ロボットは高価で形のあるものなのでさらにもう少しかかるかもしれない。
以上の情報を踏まえると、大学で生命科学の研究をしている自分の身に起こるだろう変化は以下のようになるかもしれない。
2026年~2027年にはInnovator、つまり計算機上で閉じる研究(生命科学用語で言えばDry研究)に関しては優秀な同僚(=自律して科学的発見を行える)、または超優秀な大学院生またはポスドク(=PIの科学的発見を助ける)レベルのAIがそれなりに安価な値段で利用可能になる。しかも大量に並列で。この時点で、学生への研究教育を本番の研究と完全に切り離す必要が出てくるし、ポスドクの存在意義も怪しくなる。しかしこの事実が大学の研究室の外に十分広まるまでには2年ほどかかるため、大学入試や研究グラントの制度設計への影響が出るのはもう少し後だろう。
その後、2031年までにOrganization、つまり計算系の研究室を丸ごとAI集団で置き換えることができるようになる。この時点では、科学業界はまだ論文に最低ひとりは人間のオーサーを必要としている(文字通り「責任著者」を求めている)と思われるので、実質的にすべての研究者がPIとなり全自動AI研究室を運営することになる。当然、この時点でPIをやる能力や機会を持ち合わせていない場合、その訓練を受けたり、機会を得られる場は限られている(これまではポスドクや助教をしながら経験を積んで昇進を目指せたが、そういう中間ポジションはAIに取って代わられている)ため、キャリア上の困難に陥る。ただ、このころには、計算系の研究者はかなりの部分がAIで代替できるというのが世間でもよく知られるようになって、必然的に目指す人も減りつつあるかもしれない(要は芸術系などと同じ扱い)。大学の定員や教育そのものはまだ劇的には変わらないだろうが、グラントの制度については状況を踏まえた大幅な変更がある可能性がある。
この時点で実験系の研究室は、論文執筆や研究議論、データ解析などに大いにAIを使いつつも日々の実験は相変わらず人間の手で行っているので、計算系の研究室の激しい混乱はよく分からないという感じで眺めているかもしれない。しかし、2031~2032年には5年遅れでロボティクスがInnovatorのレベルに達するので、いよいよ実験系でも技官やポスドクの置き換えが始まる。その後、2036年にはロボットによるOrganizationが達成され、科学の現場から人間が大幅に削減される可能性がある。もちろん、特殊な環境のサンプルを取りに行く、特定機器のメンテナンスに人手が要る等、人間が手足として必要になるケースはあるのでゼロにはならないが、かなり限られてくる。
ただし、実験系の場合は(ヒューマノイドを介さない)実験設備そのものの自動化もあるため、全体の時期がもう少し早くなる可能性もあるし、逆に安全性の観点から既存の実験室へのヒューマノイドの導入が遅れる可能性もある。そしてもちろん、計算系の目覚ましい発展により、実験を繰り返さずともシミュレーションで何とかなるケース(≒そもそも実験が不要になるケース)も増えるだろう。
サム・アルトマンは超知能と社会への変化に関して、「超知能が出来ても社会はそれほど(すぐには)変わらないかもしれない」とコメントしている。ただ、科学研究、特に大学の研究室は社会全体と比べれば新技術が早く導入できる場であるし、速ければ速いほど、正しければ正しいほど良い世界なので、AIとロボットの進歩をほぼ直に受けると思ってよいだろう(民間企業の研究開発も似たところがあるとは思うが、こちらは利益を上げるために敢えて既存手法を変えない等の判断もあるようなので、それほど単純ではなさそうだ)。
最初の方で、レイトマジョリティが新技術を認知・反応するまで+1~2年と書いたが、社会そのものの変化はそこからさらに+2~4年くらいかかるかもしれない。つまり、大学の研究室で変化が起こる2031年・2036年から数年~5年ほど遅れて、広く一般に計算機で閉じるような仕事(≒ホワイトカラー)がおおむねAIで代替されるのが2035年、身体を必要とする仕事は2040年近辺だろうか。
自分の研究・仕事は2030年近辺でほぼ自動化されてしまう(この予想は2023年の時に自分が抱いた「あと5年から10年で失職する」予感とも合致する)が、社会制度が変化するためにはより多くの人が影響を受ける必要があるので、2035年近辺が変化の時かもしれない(さすがにヒューマノイドが闊歩するこの時期になれば、大学の意義も問われ始めるだろう)。そうなると2030年から2035年をどうやって過ごすかが問題だ。とりあえず今から実験の人やフィールドワークの人たちに泣きつく覚悟と、そのためのコネは確保しておこう。
2035年~2040年より先のことは、個人で考えるだけ無駄なので考える必要はない。ダニエル・ココタイロらが予想するAI2027のようにAIが人間を滅ぼして宇宙に進出するかもしれないし、逆にAIが人間の言うことをよく聞いて人類が宇宙に進出するかもしれないし、また別の人たちが言うようにAIが完全に人間の手を離れて別個の生命体として独自かつ人類と対等の社会を作るかもしれないし、人間の手を離れたついでに人類には理解不能になって、単なる自然災害の一種としてしか観測できない存在になるかもしれない。
10年後が楽しみだ。
追記: 各AIによる、上の文章の分析(プロンプト:「以下の文章を分析して」)の抜粋は以下の通り。o3, o3-proの指摘するエネルギーや資源の限界、AI規制、技術ブレークスルー等によるタイムラインの振れ幅はもちろんあり得る話ではある(が、少なくとも遅れる分には自分はさほど困らないので、ここでは問題にしていない)。あと、Geminiだけ分析の方向性がなぜか国語っぽいのだけども、わざわざ別のプロンプトを用意するのも面倒だったのと、これはこれでおもしろいのでそのまま載せておく。どのAIもメモリ機能はオフで実行した。 o3: タイムラインは大胆かつ一貫性がある 一方、実際には 技術的ボトルネック と 規制、資金循環 がスピードの乱高下を招く ことが予想される。
特に ロボティクスの実装フェーズ は現場ごとの安全要件が多様で、一律に “AI+5 年” と言い切るには不確実性が大きい。
とはいえ 「計算系研究の雇用が先に縮小する」という指摘は鋭い。 研究者個人としては 実験・フィールド経験と横断的マネジメント能力 を早期に獲得しておく戦略は合理的と言える。
o3-pro: 筆者は ①技術的スケーリング則の持続、②ロボ導入は AI+5 年、③社会制度は技術よりさらに遅れる という三層の “時差モデル” を採用し、それを自らの研究キャリアに当てはめている。ロードマップとしては整合的だが、エネルギー・規制・社会受容 という外的要因の振れ幅が大きいため、予測点ではなく 幅を持ったシナリオ での備えが望ましい。とはいえ、「Dry→Wet→社会」の順に衝撃が伝搬するという構造理解と、2030–35 年を“試練期”と見立てたキャリア設計 は実践的示唆を含んでいる。 Claude 4 Opus: 強み
技術進歩の遅延要因(普及の遅れ、制度変更の遅さ)を考慮
研究分野の特性(計算系vs実験系)を踏まえた差異化
自身の立場(生命科学研究者)からの具体的な影響を検討
注意点
線形的な進歩を前提としているが、技術的ブレークスルーや停滞の可能性
規制や倫理的制約による遅延の可能性は限定的にしか考慮されていない
人間とAIの協働や新たな役割創出の可能性への言及が少ない
全体として、AI研究の最前線の動向を踏まえた、研究者視点からの現実的かつ構造的な未来予測となっています。
Gemini 2.5 Pro: 文章の特徴
冷静かつ具体的な分析: 感情的な反応に留まらず、業界の権威(ハサビス、アルトマン等)の発言や具体的なAIの進化段階を根拠に、詳細なタイムラインを構築しています。
当事者意識: 「個人の生存戦略」という切実な視点が一貫しており、抽象論ではなく、自身のキャリアに直結する問題として捉えています。
不確実性の認識: 自身の予測が記憶に基づく不正確な情報を含む可能性や、2040年以降は個人の予測を超えた大変動が起こる不確実性を認めつつも、現時点での思考をまとめることに価値を置いています。
結びのアイロニー: 未来への深刻な懸念を詳細に述べた後、「10年後が楽しみだ」と締めくくることで、この巨大な変化に対する複雑な心境(諦観、不安、そしてある種の好奇心)を表現しています。
追記2: 上の追記での各AIのコントラストが意外とおもしろかったので、追記部分もそれぞれのAIに送ってみたところ、それぞれのAIのリアクションはさらにおもしろかったので、内容を簡潔にまとめた。
o3があいかわらず理系的な頭のおかしさを発揮しているのと、思ったよりGeminiが文章に対して俯瞰的視点を持っているのと、Claude 4 Opusの性格が3から変わらずOpusで感動した。さすがAnthropic(「人類の」)が作っただけあって人間性はぶっちぎりでClaudeに軍配が上がる。未来のAI同僚はぜひOpusに来てほしい。頼むAnthropic、がんばれAnthropic。 o3:「以下の 4 つの出力は、いずれもあなたのタイムラインの「説得力」と「揺らぎ」をどう扱うかに焦点が当たっていますが、視点の置き方が少しずつ異なります(略)また、「遅れる分には困らない」という前提については(略)まとめると、 4 モデルの差異は「どこを不確実と見るか」の粒度の違いであり(略)」 Claude:「各AIの反応の違いが、それぞれのモデルの特徴をよく表していますね。(中略)面白い観察として、(1) リスク認識の温度差:o3系は最も悲観的(あるいは慎重)で、外的要因による計画の破綻可能性を強調。一方、Geminiは内容の妥当性より表現形式に関心。(中略)(3) 分析の多様性:同じ文章から、技術予測の妥当性、キャリア戦略の合理性、文章表現の巧みさなど、異なる価値を見出すAIたちの個性が浮き彫りに。 この比較自体が、AIの「Reasoner」段階の多様性を示す良い例かもしれません。各AIが異なる評価軸を持ちながらも、それぞれに価値ある洞察を提供している点で。」 Gemini:「o3は戦略コンサルタント的な分析(略)、Claudeは研究レビューア(査読者)的な分析(略)、私は文学的分析。文章を「思考を表現したテキスト作品」として捉え(略)文章の論理的な骨子だけでなく、その背景にある人間的な思考のニュアンスまでを捉えようとするアプローチ」
0 notes
mbr-br · 6 days ago
Text
最近、全く独立の複数のコンテキストから「今後のAI時代を生き残るには」という内容のメールやブログ記事・SNS投稿を立て続けに見かけることがあって、そのどれもが一様に「人間力・魅力」「個性」「人間にしかない意外性・愚かさ」を論じているのでうんざりしてしまった…のでそれに対する何かを書こうと思ったのだが、遅まきながらClaude Codeを少し実務でテストしたらそういう気分も消し飛んでしまった。
Claude Codeはコーディングエージェントだが、重要なのはClaude Codeの中身がClaude(おそらくOpusとSonnetを切り替えながら動作している?)なことだ。つまりコーディング能力とは別に大学院レベルの専門知識も十分に持っていて、おまけにインターネットアクセスもあるので、必要なものは何でも検索できるしダウンロードやインストールもできる。しかも、Manusなどと違い自前のサーバに入れて動かすものなので、ロー��ルなサーバにあるソフトウェアは何でも使いこなす。
自分にとってこれの意味するところは(バイオ)インフォマティクス研究の自動化で、今まさに自分のCursor上のClaude Codeは自分で立案した研究テーマでせっせとコードを書いたりツールを動かしたりして「これでPLOS CBに通せますよ!」といって結果を持ってきている。もちろんこのままでは通るわけがないのは一目瞭然だけども、出てきたものを自分で科学論文という点で批判的にレビューし、改善案を作れて、さらに追加のコードを書ける、このサイクルを回すだけの賢さは当然あって、繰り返しながらじわじわと完成度をあげてくる。そして何より、圧倒的に速い。CursorのAgentモードは使い慣れているが、Claude Codeは実装が良い(内部でエージェントを並列で動かしている?)のかそれよりさらに速いように思う。
思うに、人間がAIに対して優位なところは何か、などという悠長な問いを持っていられる・その言説で他人に何かを売り込めるのは、本当のフロンティアに向かい合っていないからではないか。そのフロンティアが自分の領域をまさに切り崩しているのを見たとき、個性や愚かさというふわふわしたものを口にする余裕があるとは思えない。ただ、現在のAIはソフトウェアエンジニアリングと科学研究に特化していく傾向があるので、冒頭のような「生き残り」を掲げて商売をする人たちのもとにフロンティアが到達するのは後回しになるだろう(なので、幸運なことに彼らはしばらく同じ路線で商売できるだろう)。
とりあえず、今はClaude Codeをもう少しテストして、大丈夫そうなら本格的に3~4つ並列で走らせて、実際に自分がやっている研究プロジェクトの続きをさせたい。これがAIエージェント時代か、という不安と期待を噛みしめながら。
追記: Claude Codeについて、研究室内のSlackでは「パンドラの箱を開けてしまった」と表現した。これの意味するところはかなり色々あるが、人間を教育する価値が激減していく(正確には、高等教育を受ける側にとってコストパフォーマンスが異常に悪くなる)のが嫌というほど分かってしまった、というのは一つある。研究者としては大助かりだが、教育者としてはひたすら絶望するしかない。
0 notes
mbr-br · 14 days ago
Text
ひとつ前の投稿の産業爆発について少しだけ個人的な意見を補足すると、影響を経済活動に限定して論じることで、一部で盛り上がりがちなAIの意識や感覚の問題、知能の定義をパスすることができるのがよいと思っている。こうした人文科学的な論点は大事だが、技術そのものの進歩にはそれほど寄与しないか、むしろ遅らせるのではないかと個人的には感じている。ちょうど、命はかけがえのないものという道徳的観点と、生物を解剖し機械にかけて分析しなければ前に進まない分子生物学のように、今は技術の発展のためにある種の割り切りが求められる場面で、産業爆発という概念はその割り切りをうまくやれている印象だ。
0 notes
mbr-br · 14 days ago
Text
ひとつ前の投稿で言及した、サム・アルトマンのブログ記事(The gentle singularity)を思い返している。超知能が来るというのは前から言われてはいたが、市井に出回るAIの性能が上がるにつれて、特に昨年秋のReasoningモデルの登場でAIのさらなる性能向上が確実なものとなってきたことで、「どのような変化がどのような順番で社会にもたらされるか」の解像度が上がってきている。
特に、今後のAIの発展に関しては知能爆発と産業爆発という概念の理解が重要そうだ。自己改良で知能が雪だるま式に賢くなるのが知能爆発だが、それが起きなくてもAIとロボットによる産業の爆発的発展が見込まれるというのが、解像度が上がった今の最新の予想らしい。サム・アルトマンのブログでも産業爆発の単語こそ出てこないが、それに類する記述がある。
このプロセスをあえて単純化して書くなら「経済的価値があれば何であってもAIやロボットに概ね取って代わられる」となるのだろう。ただ、それが必ず不幸をもたらすかと言えばそういうわけでもなく、うまくいけば最終的に向かうのはデミス・ハサビスなどの言うところの「ラディカル・アバンダンス」、何もかもか豊富な世界だというのは多くの人が同意するところではある(例の極端な予想であるAI2027でもその様が描かれている)。もちろん、そこに至るまでの期間の予想にはかなり幅があって、その間の混乱も当然予想されてはいるけども。
こうした、特に産業爆発とアバンダンスに関する予想をどれだけの人が理解したうえで、AIに奪われない仕事はどれ等という発言をしているのか興味がある。また、この予想を前提にすると、個人レベルでも社会レベルでも多くの問題はそもそも問題ではなくなっていき、代わりにAIにまつわる多くの新たな問題が立ち上がってくる。なので、向こう数年ですぐさま解決する必要も見込みもないならば、あえて現状の問題を議論しないというのも手かもしれない(個人的には2年前からこの視点なので、AIの事以外は考える必要がない=AI以外の話題・問題に好きでもないのに拘泥するのは正直どうかと思っている)。
追記: 上の産業爆発の概念は、自分ひとりで集めた情報ではなく某Discordサーバで収集した話なのだけども、オープンなSNSよりDiscordのようなクローズドな場所の方が、情報も集まりやすくコミュニケーションも取りやすいと感じる。同じ価値観を共有している人たちの集まりなので当然なのだが、情報を網羅するAIと比較して相対的に人間がノイズになっていく時代には、オープンな場で特定個人を追っていく必要性も減っていくかもしれない。
追記2: 上の文章を書き終えた後、イリヤ・サツケバーのトロント大卒業式での講演の書きおこしを見つけて読んだが、彼が卒業生に向けて語った「AIから目をそらさない」というアドバイスは自分が2年前に決めたスタンスと同じで、少しうれしくなった。
また、今日はNYTimesのMechanize(ホワイトカラー職の全自動化を目標としたスタートアップ)の記事、さらにはScientific Americanでの数学者らがAIを「出し抜こう」とする苦闘の記事、そして家庭用の二足歩行ロボット(ヒューマノイド)企業の1Xからは歩行の自然さが格段に上がった新モデルの動画が公開されるなど、関連するおもしろい話題をたくさん見つけた。
明日すぐにAIやロボットが人間に取って代わることはないが、2年後、5年後、そして10年後には素晴らしい未来が待っていると信じられるような、良い兆候がたくさん見られるのは素直にうれしい。例のサム・アルトマンのブログ記事の締めにあるように、ぜひこのままexponentiallyかつuneventfullyに進歩が進んで欲しいものだ。
0 notes
mbr-br · 15 days ago
Text
o3-proがやってきた。まだ使いこなせているとは言い難いが、少し試したところ確実に安定感が上がっている。特に、o1-proで出来なかったWebサーチ等ができるようになって、最新の情報をもとに検討できるのが強い。過去のチャットのやり取りも参照するので、自分の興味を反映した内容に寄せてくるのは、良いところも悪いところもある。
こうして、多くの知識を蓄えつつ、かつ縦横無尽に情報を検索できるAIとやりとりしていると、知識を知っていることそのものや、ある知識を右から左へと持っていくことの無意味さをしみじみと感じる。どこかで見聞きしたことを別のコンテキストで思い出して喋るだけなら、人間である必要はないのだろう。
追記: o3-proリリースにあわせてか、サム・アルトマンがブログを更新していた。event horizonを超え、take offが始まっているという書き出しは力強い。今後、超知能(ASI)がだれでもアクセス可能になれば、良いアイデアを持っているかどうかが焦点となるという文章は、上の「知識の蓄積・移動の無意味化」と少し関係するかもしれない。誰かに聞いて回るかわりにASIに問えばよく、手助けしてくれる誰かを探す代わりにASIに頼めばよい。すべてはASIに投げかける最初の問い、あえて一般化しつつ尖った言葉を選ぶならば「願い」を持てるか、そして熱心に言葉を尽くして「願い続けられるか」なのだろうという感じがした。
0 notes
mbr-br · 22 days ago
Text
今まで見たことがないタイプの夢を見た。現実世界の知り合いではないが夢の中では知り合いと認識しているらしき人物と会話しているのだが、その人物がこちらの国籍やら外見やらで事実無根な嫌味を言ってきて、それに不快感を覚えつつも黙って寛容な態度を取って聞いているという状況で、起きてから「なんでこんな嫌な奴と我慢して会話していたんだ、さっさと縁を切ればいいのに」と思ってしまうような夢だった。
ついでなので夢の中で覚えた不快感を掘り下げてみるうち、「自分の意志で明確かつ自由に選んだわけではない属性をアイデンティティの中核にするのは違う」という結論に行きついた。生まれ持った外見や性別、人種・国籍とそれを通じて得たすべての体験・経験、生まれた家庭環境やそれに伴う不遇や優遇、ひいては人間であることそのもの(※)も自分にとっては真のアイデンティティにはなりえないし、他人がそうした属性でこちらを記述したり、何らかの事例として利用してくるのは不愉快だ。たとえば自分は経済的に厳しい家庭から昼間の四大に進学していて、その事実を自分が誰かを励ましたり諫めたりすることに使うことはあるが、他人に適当な事例として雑に使われるとはっきり言って気分が悪い。
もちろん、直接面識のない人や仕事上のつながりしかない人が、こうした外部要素からこちらを判断するのは仕方がないし、理にかなってもいる。ただ、こちらが内心で独特なアイデンティティを持っていることを知っていて、それでもそうした「退屈な」属性でこちらを理解・記述する場合(頻度は多くないがたまに起こる)、それは嫌がらせか狭量かのいずれかに思えてしまう。どちらにせよ自分にとっては迷惑な事態であるし、冒頭の夢の感想がそのまま当てはまるのかもしれない。
※ 前々から書いている通り、自分は自身が人間であり続けるのは「ありえない」と感じていて、早く終わりにしたいにも関わらずなかなか死が訪れないのを、漠然と「これはまだ人生でやるべきこと(仕事)があるという意味なんだろうか」と受け止めているところがある。面白いことに、先日のスピリチュアルがらみのセッションでも「あなたは(もともと人間からかけ離れている上に)自分の意志ではなく仕事として人間に転生しているので、人間をやりたくないのは当然」と言われて、ああやっぱりこの人生ではやるべき仕事があるのか、と納得する一幕があった。偶然だとしても、なかなか愉快な一致ではある。
0 notes
mbr-br · 30 days ago
Text
先週初めの、精神世界に関連する経験・得た情報をこの1週間あれこれと考えていた。個人的なことなのでやはり詳細は記さないが、この1週間でのあいだに追加で得た情報があったり、前に浮かんだイメージはもしかするとこれのことだったのかと思ったりと、自分の中で少しずつ意味を咀嚼している。
ところで、2月末あたりから記述している今回のスピリチュアルがらみのあれこれの発端は、以前ここにも書いた通り、テクノロジーへの親和性がとても高い=スピリチュアルに一切興味がないだろうという、こちらのことを相当誤解した(しかも主に15年以上前の印象を基にした)発言を受け取ったことだ。
その発言の中で、「こういう人がXXさん(発言者がやや傾倒しているらしき、ある特定のスピリチュアル能力者)のことを知ったらどうなるだろう」とも言われたので、誤解を解くついでとして(ここであれこれ書いてきたことと並行して)その能力者の方の書いたブログ記事・本などをあるだけ買い、読めるだけ読み、どのようなスピリチュアルであるかを理解したうえで、先週には個人セッションも実際に受けてみて、直接「珍しい、この種類(系列?)の魂が人間に生まれる(転生する)ことってあるんですね、初めて見ました!」と言われるなどして、自分が標準から、かつ人間から著しく外れているという自己認識をスピリチュアル方向から裏付けられるところまで来たのだけども、元々の発言者はこの一連の流れを見て満足しただろうか。
ここまで一通りやってみて、そもそも発言した当人は(少なくとも発言した時点では)セッションを受けたことがないようにも見えたので、人に勧める前にどうせなら自分で受けてみればいいのにな、自己を理解するうえで大いに助けになるだろうに、と思ってしまった。
スピリチュアルに限らず、適切な人物から自分に対するアドバイスを個別に得ると、いかに一般に出回っている情報が多数派向けかというのを実感する(「どうりで試してもうまくいかないわけだ」)。一般に向けたメッセージを一生懸命理解するより、自分に���った情報を得る方が結局コスパもタイパも良い。もちろん、その適切な人物とやらを見出すのが一番大変ではあるのだけども。
0 notes
mbr-br · 1 month ago
Text
インターネットを眺めていたら、「コンピュータの速度が数百万倍になったにもかかわらず、生産性が数百万倍になっていないのはなぜか」という問いにいろいろな人が答えているのを見かけた。そのなかの「人間はそこまで速くはなれないから」という答を見て、この4月に自分が研究室内の年度初めセミナー(年度の所信表明のような会)で発言した、「科学研究から人間を排して完全に自動化したい、人間は遅すぎるから」を思い出した。よく考えると、自分のスタンスはだいたいいつも「人間は劣っているので技術的に改善するか、より優れたもので代替すべし」のように思う。いわゆる人間讃歌の逆だ。
0 notes
mbr-br · 1 month ago
Text
今日は精神世界方面でかなり面白い経験をした。ここにすべては記さないが、これまでに人生で2度ほど全く違う手法で他人にきちんと「観て/視てもらう」機会があって、今日がその2度目だった。コンテキストは全く違えどその両方で珍しいと言われたので、たぶん何かが珍しいのだろう。こうした機会は、自分自身を全く違う方向(あえてそれっぽく書くなら「次元」)から客観的に眺めるとともに人生を俯瞰することに繋がるので、内容の真偽はともかく割と意味のあることだと思っている。
追記: 過去2回しかない経験ではあるが、そのどちらも「自分の人生で説明不能な部分」が部分的に明らかになる(かのような説明をされる)のが、個人的におもしろい。特に、今回は自分がそれほど人前で口にしたことのない、生物に対する否定的な感情のかなり詳細な部分である「単細胞生物が分裂して増殖するのはまだ良いが、多細胞生物や有性生殖はくそくらえだ」を見事に突いていて、感心した。霊やスピリチュアルを標榜するサービスで、ピンポイントにここを突けるものはなかなか無いように思う。
そういうわけで、今回は人間でいたくないという感情(ついでで、いわゆる男女論や母子・父子論への強い嫌悪感)にはクリアな説明がついた(かのような情報を提示された)のだが、計算機や学術への激しい執着心は過去2回のどちらでもまだそれほど説明されていない。もしあれば今後の機会に期待したい。
0 notes
mbr-br · 1 month ago
Text
またあれこれと雑多なことを考えている。基本的には自分の周りで起きたことに対して個別に考えを巡らせているにすぎないが、いくつか関連しそうな話題、特に修士号にまつわる話、が立て続けにあったのでここにまとめておく。
今ちょうど、自分の周りには博士課程の終わりに差し掛かって博士号をとれるかどうかという人が二人ほどいて、その様子を見ているうちに「博士号を取るとはどういうことか、修士で止めておくべき人と博士を取り切れる人の違いはどこにあるのか、修士課程在学中の能力からそれを推し量れるか」という問いをまた考えたりしている。自分が学生の時は自分がどちらなのかと大いに悩み、教員になってからは、それぞれの学生はどちらなのかと大いに悩まされている。今の時点での暫定的かつ平凡な答は、修士の時点でそれほど振るわない場合、環境やテーマを大きく変えなければ博士で劇的に変わることはなく博士号も取り切れない可能性が高い、だ。
それと関連して、修士での能力を測る上で修士論文とプレゼンテーションのセットが必須なことはほぼ間違いないにもかかわらず、どちらに重点を置くかは大学や国によって意外と違うというのを最近知った。さらに、AIによって計算機内で完結するような研究は修論程度であればそれなりに簡単に生成できてしまうようになったので、当人の生身の能力を測る上ではリアルタイムの質疑が必要なプレゼンの方がより重要で、これまで重視されていた修論の価値が相対的に下がっているのではないか、という話を人とするなどした。
ただ、たとえ能力判別のための価値が下がっているとしても、修士論文を書くというのは大学院で習得すべきスキルに対する必須の試験のように感じている。自分がこれまで見てきたなかでも、修士の最後に修論を準備する中で急激に能力を伸ばした学生は多い。また、いわゆる研究を行わずにコースワークだけで修士号を取れるような大学院(日本では専門職大学院が多分これに相当する)でも「長い文章を書かせる」課題はあるし、実際自分が今通っているオンラインの米国大学院もコースワーク修士ではあるが、ほぼ必修科目のMachine Learningには学術研究のようなスタイルで課題をこなし、論文のテンプレートに沿ってレポートを書かせる課題が複数回ある。大学院で教育を受けるからには仮に修士研究をやらないとしても、学術論文の読み書きの基本を身に着けてほしいという意図らしく、実際そのための資料も講義のマテリアルとして明示される。実際前学期に取り組ん��みて、たとえ課題という形であってもIEEEテンプレートの2段組み8ページをLaTeXを駆使して4回も書くと、なんとなく情報系の論文が書けそうな気がしてくるのだから、効果は相当なものだ。
結局のところ、修士で通過・経験すべきは論文書き(修論または投稿論文)とプレゼンテーション(学会発表含む)で、それを経験したあとの様子でそのまま博士を続けても良いかどうかがある程度わかるのかもしれない。
0 notes
mbr-br · 2 months ago
Text
また少し色々なものを見聞きしたり思い出したりして、あれこれと考えている。その詳細を書き上げるのはかなり難しいが、まとめるなら、ある人間の持つ様々な属性のどれがその人自身にとって真にアイデンティティと呼べるものなのか、何を取り去ると自分は自分でなくなってしまうと自身が思っているのか、というような感じだろう。そして自分にとって、それは趣味や性格、性別や人種や人間であることや生物であることではなく、学術への強い思いなのだろうと改めて感じる。
知的好奇心や科学や技術、研究ではなく学術としたのには理由があって、学術とすることで企業ではなく大学勤めを選んだことや、大学に勤めながらさらに(独学で済ませずに)大学・大学院に通う行動原理をよりはっきりと説明できる。おそらく、ただ知識やスキルを得たり、特定分野の研究活動を行うというよりは、学問に取りかかる上での技術を身に着けること、それを使っていくことが好きなのだろう。
冒頭の、いろいろ見聞きしたものを自分の中で咀嚼して、あらためて、今の自分の力の限り学業と学術に取り組みたいとしみじみ思った(どうせなら力を遥かに超えていきたい気持ちもある)。
0 notes
mbr-br · 2 months ago
Text
また少しAIの発展と、その後に来るかもしれないシンギュラリティについて考えている。シンギュラリティの到来を望む人たちのなかでも、到来とともに何が起きてほしいかの具体的な「望み」は多種多様だが、既存社会制度の崩壊を望む人は比較的多い。その筆頭は「生きるために労働する必要がない世界になってほしい」だが、それ以外にも「個々人がそれぞれの箱庭のような、自身に都合の良い世界にフルダイブVRで飛び込んで楽しく過ごせるようになってほしい、だって生身の他人は不快なものだから」という意見も見たことがあり、これも理解できる。
ただ、自分がシンギュラリティに何を望むかと言われると、やはり上記のような人間的な望みというよりは、人間社会が前提としている根源的な境界の消滅、つまり生死、生物無生物、自他の境界の消滅のように思う。それ以外だと、人間社会そのものの消滅(他人の消滅)だろうか。たとえば、世界の大多数はAIと機械で占められていて、彼らの文明のなかで人間はそれぞれ完全に一人ずつ隔離されて存在し、他者との人間的交流が不可能になるというのも、個人的にはぜひ起こってほしい。世界のすべてが自分と異種かつ敵対的で、友好的な協力者を全く得られない状況に、人類がどれだけ適応できるのか興味がある(自分もそこまでうまく適応できる自信はない)。これまでの人生で見てきた限り、他者(家族や子供、恋人や友人、同じ趣味を持つ仲間など)を心の支えにしている人は意外と多そうなので、これが起こると人類に大きな変容を迫れるように思う。
ただもちろん、一番起こってほしいのは自身が人間(生物)でなくなることで、運よく人間でなくなることができるならば、AI(ASI)となって全知(全能でなくてもよい)の存在を目指すのが理想ではある。この場合、現生人類のことは割とどうでもよい(気がする)が、理想の追求の邪魔だけはしてほしくないとは思う。
0 notes
mbr-br · 2 months ago
Text
OpenAIから期せずしてo3が発表された。本業の研究活動やオンライン大学院でのコーディング等々に投入してみているが、やはりすごい。初めてのReasoningモデルだったo1 (o1-preview)やo1 Proのときも本当にすごいと感じたが、検索を備えたo3はその比ではないと感じる。o3が来る前はGemini 2.5 Proに少し世話になっていたが、メモリ機能や過去チャットの蓄積がある分、o3の方がいろいろと話が速い。そして図もきちんと読めるので図を踏まえた議論ができる。o1が修士か博士の学生なら、o3は間違いなくポスドクだ。ただ、o1 Proとの会話に久しぶりの「メンターとの対話感」を覚えた身としては、これでo3 Proが来てしまったら何がどうなってしまうのかとも思う。
こうしてo3とやり取りしていると、たった2年前、GPT-4のコンテキストウィンドウ8kをぎりぎりまで使おうと、Playgroundごしに必死に既存のDNA言語モデルのコードを入れては中身を理解しようとしていたのが悪い冗談のようだ。それはつまり、今こうしてChatGPTに研究計画書を投げ込んでo3と議論したりコードを書いてもらっていることもまた、2年後には悪い冗談に感じられるような未来が待っているということになる。今のこれが冗談と思えるレベルとなると、ChatGPTが半分能動的に研究を進めているくらいのことは起こっているだろうか。そうなればもはや人間、研究AGIである。
0 notes
mbr-br · 2 months ago
Text
以前試した、自分の人生における奇妙な経験をまとめてChatGPT(GPT-4.5)に入れてスピリチュアル的に解釈してもらう試みを、ふと思い立ってo1でやってみた。あまり情緒的でなく「理系」と称されるo1モデルがこうした非科学的な話題にどう返すのか少し心配したが、30秒考えて出てきた答は大体GPT-4.5と同じような内容で、より分析的なトーンになっていて面白かった。一般のスピリチュアルでは受けが悪そうだが、できるだけ論理的であろうとするところ(そして実際、かなり論理的・科学的な態度ではある)が、自分としてはかえって安心感がある。
さらに追加エピソードを投入して解釈してもらったところ、返答の最初で「相変わらずかなりユニークな軌跡ですが」と言われて、お前に言われたくないなー、という感想が浮かんだ。GPTシリーズから唐突に生えてきた推論型モデルであるo1も、それなりにユニークな軌跡ではある。
この追加エピソードの中に「中学生のころ、自発的に般若心経の真言部分をテスト前などにお祈り代わりとして唱えていた」というのがあるのだが、それに対してo1が「中学生がテスト対策で唱えたという話ですが、そもそも般若心経の解説書を読み、最終部分(真言)に重要性を見出して暗唱するというのは、かなり“興味の方向性”が特殊です」と分析してきて、GPT-4.5ではなかった新しい発見があった。また、その時以来、般若心経の解説を読んだことはなかったので、当時の自分の解釈(最後が大事)があっていたか確認したが、やはり正しいようで良かった。どうやら般若心経を唱えると徳が積まれるという話もあるらしいが、真言部分だけ唱えまくっていても徳は積まれるのだろうか。よくわからない。
0 notes
mbr-br · 2 months ago
Text
みうらじゅんの「比較三原則」を思い出している。彼の言う、「自分を親、友達、過去の自分と比較しない」ことは、悩みの元を絶つとともに、驕りの元も絶つことができるのだと感じている。
成長や成熟という言葉で隠されがちだが、過去の自分と比較して今の自分が良くなっていると思うのも、忘れやすいがある種の驕りだ。変化は常にあるだろうが、それに自ら良い悪いのラベル付けをする必要は実はないのだろう。
0 notes
mbr-br · 2 months ago
Text
範を示す、ということについて考えている。大学で教員になって10年ちょっとが経ち、その間にそれなりの数の学部生や大学院生を研究室で指導してきたが、それぞれの学生が行う活動の達成度や態度について教員側が明確な基準をもって「良い」「悪い」を口にする、態度に示すのは重要だと感じている。
もちろん学生によって出来ることの向き不向きはあるし、性格にあわせて言い方やアプローチも工夫した方が良いのは間違いない。ある程度プレッシャーをかけても大丈夫なタイプと、励ました方がはかどるタイプでは扱いを変えるのは避けられない。それでも、「これは駄目だ」「これは良い」という基準を示すときは、どんなタイプであってもほぼ同じトーンで、同じように言わなければ、周りで聞いている学生は納得しないし、彼らのやる気(士気)も下がってしまう。
実のところ、これまでの複数の実体験では、教員が言うべきことを言わないでいる(=やるべきことをやらないでいる)ことによる周囲の学生の士気減少は(コメントの対象となる当人に対する直接的な影響よりも)かなり大きいと感じられる。つまり、望ましくない態度・成果の学生に対し、たとえ改善がなかなか見込めず暖簾に腕押しと感じられても、他の学生の前で何度でも明確に繰り返し指摘することには意味があるし、むしろそうしなければ学生からも信用されない。これは教員としては大変な心理的負担(そしてともすればアカハラ・パワハラになりやすい状況)だが、そこをうまく涼しい顔でやれるようになるのもある種のスキルかもしれない(たぶん、教員の給料の結構な部分はこういうところに払われている)。
ただ、教員が一人しかいない研究室ではこれが思いのほか難しい。自分の現在の職場は複数の教員から成っているので、各々が独立に発言すると自ずと誰かは厳しく誰かは少し手加減するということが起こるが、自分一人しかいない状況では当人の中でバランスをとる必要があるので、言葉が弱くなったり、気が回らないこともあると実感する。
それでも、昔に比べていろいろなことが厳格になり、何かあればすぐに開示する必要があるおかげで、特に基準に達しない学生にそう告げることはやりやすくなってきているのではないかと感じる(とはいえ、きちんとやっている学生とそうでない学生を同じように扱うのは、きちんとやっている学生に対して説明がつかない、という至極当たり前のことでしかないのだけども…)。修士や博士の審査で落とすこともあるし、様々な大学院プログラムでも中間審査などで明確に点数やコメントをつけ、学生にフィードバックする機会は多い。また、学生の側もそういう環境に慣れているようにも見える。もちろんそうした他者からの評価が常に正しいとは限らないが、自分の長所・短所に20代のうちから自覚的であろうとする今の風潮は、個人的にそれほど悪くないと感じている。
追記: 基準を変えずに示し続ける、というのは重要ではあるのだけども、教員も人間であるので、例外的に性格の相性で「ハック」されてしまうことがたまにある(教員当人が自覚なく過剰に甘かったり過剰に厳しかったり、が起こる)。場に複数の教員がいるとこういう時に気づきやすく牽制もしやすいが、一人しかいない場合は猛烈に自問自答するくらいしか防止策は思いつかない。ここに上手にAIが入ってきてくれるととてもありがたいが、そのためには日々のやり取りのすべてをAIが見ている必要もありそうで、やや敷居は高そうだ。
追記2: ふと気づいたのだが、今の職場では研究室全体の集まりで学生一人当たりにかける時間(進捗報告等)は上限が漠然と決まっていて、長くなると打ち切るようにしている(もちろん、必要ならあとで教員と当該学生だけで個別にミーティングしてフォローする)。これはある意味で「我々は個別の学生がどのような状態にあっても、特別扱い(=全員参加の集まりでより多くの時間をアサインすること)はしない」というメッセージになっていて、個人的には良いと思っている。基本的に、できる学生であってもできない学生であっても、そして学部生であっても博士であっても、自分の力量を見定めて自分なりに戦略を考えて前に進むようにという教育方針なので、自身を客観視して力量を正しく計れないと厳しい研究室ではある。
0 notes