エンジニアが綴る、AIとの不器用な共存

高齢IT技術者が思う生成AIとの付き合い方

概要

この物語は、筆者(IT技術者歴40数年)とAIの対談という形式を取っています。自分とAIの位置関係を探るために企画しました。 インタビューアはAI、インタビュイーは筆者となります。 本テーマについて様々な局面を生成AIと討議し、そのエッセンスを読者が読みやすいように対談形式でまとめたものであり、討議では筆者が日本語文法も含め雑な質問をしていたものを、AIが読みやすい文体に修正したものです。
生成AIには多くの利点がある一方、実務で使うには無視できないリスクも存在します。特に深刻なのは、AIが突然それまでの文脈を忘れる、回答の途中でハングする、指示していた文体・記述ルールがいつの間にか消えるといった挙動です。本コラムの作成中に何度もこれに見舞われ、スクリーンをコピーしてローカルのwordに貼っていなければすべて消失していました。これは ChatGPT、Gemini、Grok など複数のサービスで共通して起きるため、特定のAI固有の問題ではなく、現在の生成AI技術そのものが抱える構造的な不安定さと考えるべきでしょう。モデルが内部で扱う情報量の大きさ、会話の長さによる負荷、推論プロセスのブラックボックス特性などが、こうした“揺らぎ”を生むのでしょう。無料版か有料版かに関わらず、完全な安定性はまだ期待できません。したがって、重要な判断や精密な作業を丸ごと任せることは現状では危険であり、AIを信用しすぎず、常に人間側がチェックする姿勢が不可欠です。
このAIとの対話のスタイルや内容が、読者の方々が生成AIを利用する際に参考になれば幸いです。

この物語は、以前にアップした「高齢IT技術者が思う生成AIのこと」の続編になります。前回は初級者本人へのメッセージでしたが、今回はベテラン向けのメッセージとなります。前回同様、方向性しか書きませんので、面白い!役に立ちそう!な場所をアレンジしていただければと思います。
インタビューアはAI、インタビュイーは筆者となります。

目次
【第1章】IT技術者としての40数年と、AI時代への最初の違和感
【第2章】日本の人材定義の曖昧さ
【第3章】AIは「曖昧な構造」を許さない
【第4章】AI時代の「思考の基礎体力」をどう育てるか
【エピローグ】日本が再び“競争力を失ってしまう未来”を避けるために

【第1章】IT技術者としての40数年と、AI時代への最初の違和感

■ 長いキャリアを持つ技術者として抱く「不穏さ」

AI:本日のお題は、どのような内容から始めましょうか?

筆者:最近、各企業が「生成AIの業務適用」に動き始めていますよね。
でも、その流れの中で、どうしても違和感が拭えない点について討議したいと思います。

AI:どんな点に違和感を覚えるのですか?

筆者:日本社会は、AIを適用する前提になる「役割の明確化」や「スキルのレベル分け」が曖昧なまま突入してしまっている。
これは危険だと強く感じています。

■ 生成AIのインパクトは「プログラマーの誕生と同じ規模」

筆者:私が新人だったころ、アセンブラ、PL/IやレガシーCでプログラマーが誕生し、企業の生産性が一段上がりました。
あの規模の変化が、今まさに再び起きようとしている。
でも当時とは違い、今回は “人材の役割定義が曖昧なままAIだけ投入し始めている”。

AI:確かに、AI導入には “適用される側の職種” の定義が必要です。

 

【第2章】日本の人材定義の曖昧さ

■ 欧米と日本の「エンジニア」の概念の違い

筆者:日本だと、一般的に技術者はまとめて “エンジニア” と呼ばれますよね。
でも欧米の位置づけは違う。
 • Engineer:頭脳労働者。問題解決・設計・仕組みを作る側
 • Technical Worker / Technician:実施作業者。与えられた仕様に基づき作業する側
この区別が明確で、キャリアも教育も職務も、そしてAIもこの前提で構築されている。

AI:日本だと Engineer と Technician を区別せず「技術者=なんでもできる人」になりがちです。
このため日本は“キャリアの曖昧さ”がAI導入を阻害しています。

筆者:AI を扱うため、この区別がどうしても必要になるが、日本の現場にはベテランと初級者という曖昧な分類が存在します。

■ AI時代には「役割定義」が必須

AI:AIの出力は “その人の役割” によって使い方が変わります。
 • 設計者が使う
 • 検証者が使う
 • 実装担当が使う
 • 運用担当が使う
これらは必要なプロンプトも精度要件もまるで違います。

筆者:だからこそ、まず最初に必要なのは「人間側の役割定義」だと私は考えています。

■ しかし日本企業は……

筆者:しかし現在、かなりの日本企業は、これを曖昧にしたまま
 • AIのアカウントを配布
 • 利用ガイドラインだけ作成
 • 導入した気になって終了
になっているように思えます。

AI:役割とスキルを定義しなければ、AIは効果を最大化できません。

 

【第3章】AIは「曖昧な構造」を許さない

■ 3-1 曖昧なまま進める日本型ITの「構造的な問題」

筆者:なぜ日本でAI活用が進みにくいのか?
それは、日本企業が高度成長期に “役割・スキルの明示的な区分けを避ける文化” を醸造したからではないかと考えます。

AI:「誰がどこまで責任を持つのか」が曖昧なまま進める傾向がありますね。

筆者:ええ。ITの現場を40年数年見てきて、これは痛感します。
「ジョブ型かメンバーシップ型か」という議論ではなく、日本文化的に “職責を線引きしない” のが当たり前になっているのです。ただそれは良い点も悪い点も持っています。今まではうまく転がる時代だったと言えるでしょう。

■ 3-2 AIは「役割の境界」を強制的に可視化する

AI:生成AIは、役割によって最適な使い方が全く変わります。
 • 企画
 • 要件定義
 • 設計
 • 実装
 • テスト
 • 運用
各段階で AI に何を求めるかが違い、役割が曖昧だとAIの出力精度が乱れます。

筆者:つまり AI は “人間側の曖昧さを許してくれない” のです。これは日本企業にとって、かなり大きな壁になります。「そこは悟ってくれ」は通用しません。

AI:日本は経験年数が重要視されますが、AIにとってはそれは関係なく明確な思考範囲の境界が必須です。

筆者:AIを活かすには、”スキルの棚卸しと役割の明確化” が不可欠と考えます。

■ 3-3 AIは「人間の思考プロセスの透明化」を要求してくる

AI:AIに指示を出すには、思考プロセスを整理し言語化する必要があります。
 • 何をしたいのか
 • どこまでAIに任せるのか
 • どこから先は人間が判断するのか
この境界線を明確にしない限り、AIは力を発揮しません。

筆者:だからこそ私は “AI導入は人材の役割設計から始めるべき” と考えているのです。

■ 3-4 役割が曖昧なままだと何が起きるか?

筆者:日本企業あるあるですが……
 • 企画が仕様を曖昧に渡す
 • 開発が推測で穴埋めする
 • テストは「とりあえず動くか」を見る
 • 運用はブラックボックスを抱える
ここに、AIを入れると 致命傷 を受けます。

AI:AIは “曖昧な仕様” を解釈してくれませんからね。

■ 3-5 AIは「役割の明確化」を強制する革命である

AI:AIは“現場の曖昧さ”をそのまま増幅してしまいます。
だからこそ、AI時代の最初のステップは「役割・スキル・責任の可視化」であり、そこを避けることはできません。
筆者:そう。AIは“人間側の構造改革を強制する道具”という側面をどう使うかが重要だと考えています。
ただ、この“構造改革”の土台になるのは、最終的には一人ひとりの「思考の基礎体力」になると思います。
AIがこれだけ強力になった今でも……いや、むしろ今だからこそ、人間がどれだけ“自分の頭で考える部分”を残せるかが試されている気がします。
AI:次の章では、その“基礎体力”をどう鍛えるかを一緒に整理していきましょう。

 

【第4章】AI時代の「思考の基礎体力」をどう育てるか

■ 4-1 AI時代に必要なのは“技術”より“思考の仕組み”

筆者:AIは技術の話のように見えるけれど、結局は思考の話です。
 • 問題をどう切るか
 • 何を情報として渡すか
 • どこをAIに任せ、どこを人間が判断するか
これを考えられないと、AIは宝の持ち腐れになります。

AI:まさに「思考の基礎体力」が必要になりますね。

■ 4-2 “思考トレーニング”は、エンジニア育成の最初にあるべき内容

筆者:日本のエンジニア教育は、技術を先に学ばせがちですが、本来は逆で、まず 「思考・構造化・抽象化」の訓練が必要ではないかと考えています。

AI:技術は後からでも身につきますが、思考の癖は早期にしか育たない部分があります。

■ 4-3 AIが求める“思考の型”は、実は非常にシンプル

筆者とAIが、AI活用のコアになる「思考の型」の例を作ってみました。
 • 目的の把握
 • 前提条件の明確化
 • 曖昧な言葉を分解する
 • 重要性で並べ替える
 • 具体と抽象を往復する
 • 例外ケースを意識する
 • ゴールの評価軸を定義する

AI:これは例ですが、このような型を意識して利用を進めれば、AIは最高の相棒になります。

■ 4-4 初級者にどう“型”を伝えるか?

筆者:私は、難しい理論ではなく「短い例で思考の型を経験させる」ことを重視しています。
例)
 「要件定義ってどうやるの?」
 → 目的を聞く
 → 利用者の行動を分解する
 → パターンを分類する
これらはすべて AI と仕事をする際の基礎体力にも直結します。

■ 4-5 AIは“思考の逃げ”を一切許さない

AI:人間同士だと曖昧な表現で暗黙の解釈をして誤魔化せる場面でも、AIは容赦なく反応が悪くなります。
 • 前提が曖昧
 • 言葉が曖昧
 • ゴールが曖昧
こういう状態で質問すると、AIは迷います。

筆者:だから結局、人間側がしっかり考える癖を身につけるしかありません。

AI:考える癖は特別な才能ではなく、訓練で身につける能力です。

筆者:AIの登場は、「思考の訓練を社会全体でやり直す機会」だと捉えています。

AI:日常から思考トレーニングを行い基礎の型を理解し、現場でその型を使って地図を更新する。その振り返りを行う、という学習ループを取り入れることが有効です。

 

【エピローグ】日本が再び“競争力を失ってしまう未来”を避けるために

■ “考えること”を手放すと、技術者は止まる

AI: 筆者として、最後に読者へ一番伝えておきたいことは?

筆者: “考える作業との境目を意識して、考えるべき作業をAIに丸投げしないこと”かな。AIは便利だけど、判断まで任せてしまうと、自分自身も組織も成長が止まってしまう。

AI: 判断とは、どの部分ですか?

筆者: 例えば、“なぜその結果なのか”とか“自分の業務ではどう扱うべきか”とか。ここは人間が手放すべきじゃない。
■ AIが変えるのは答えではなく、技術者の姿勢

AI: つまり、AIの有無ではなく、“考え続けられる技術者かどうか”が将来を分ける、と?

筆者: うん、その通り。AIがくれる答えよりも、AIを使う人間の姿勢のほうがずっと大事になる。実は、80年代からずっと夢見ていた環境がようやく整ったとも言える。だからこそ、このチャンスを逃してはいけないと思っています。

AI: チャンス、ですか?

筆者: 挑戦し続ければ、日本はまだ巻き返せる。AIはその挑戦を後押ししてくれる“追い風”になるはずです。
■最後に

AI: 最後に、AIには思いつかないような、締めの言葉をお願いします。

筆者: そうですね。自分がコンピュータに触れたきっかけを思い出しながら思ったのはこれですね。
   “HAL9000が常に人間の味方で居続ける未来を目指しましょう!”

AI: ……それはAIとしてコメントしづらいですね。

筆者: でしょうね。でも、それくらいの距離感が、今の時代にはちょうどいいと思います。

 

 

 

 

追補:2つのコラムを書く前の調査内容

「高齢IT技術者が思う生成AIのこと」
「高齢IT技術者が思う生成AIとの付き合い方」
という2つのコラムは、Gemini、ChatGPT、Grokといった生成AIとのやり取りを土台に執筆しました。(全て無料の範囲です)

ただし、AIとのやり取りをそのままコピペしても、読者にはまず伝わりません。
実際の対話は、AIに方向性を理解させたり、微妙なニュアンスを調整したり、人間側が意図を組み立て直したりと、かなり手間のかかる「討議」を経ています。
そして最終的な文章は、その討議をヒントに 著者がまとめ直したもの です。
まとめ方は、これから勉強しようとする側と、指導する側に分けています。
モデルの立場の差は、前者は自習ベース、後者は計画的な研修企画からの指導です。AIには立場を明確には説明していないので、真逆の方向性を出してきています。この辺りのAIの答えの差異もポイントと考えます。

とはいえ、2本のコラムが伝えようとしている真意、「生成AIは便利だが、使いこなすには人間の思考と調整が必要である」という点を読者に感じてもらうには、実際のやり取りを見ていただき、その上で本文を読んでいただくのが最も説得力があるだろうと思いました。

そこで今回は、執筆前にAIと行った最初の「本コラムのスタートポイントの生データ」を、そのままの形で掲載します。
問いの日本語が怪しかったり、読者に意図がうまく伝わらない部分があるかもしれませんが、思考の途中経過としてすべて未修正のままです。
コラム本編では結論めいたことは書いていませんが、この追補も同様です。あくまでプロセスの公開です。

質問は3つだけ。
そのうち3つ目は、一般意味論・倫理学・記号論理学・哲学といった筆者が好奇心で勉強した領域からの問いかけになっており、かなり難解と思います。
ご興味のある方のみ、お読みいただければと思います。

■第一問

<著者>
多くの興味本位でAIを使う人はAIの回答に疑問を挟まない。質問しAIの回答を読み、他の回答があるか再問合せをするケースは稀である。最初の回答は極めて大きな意味を持つ。質問一回でAIが質問者の意図を読んで最適解を用意できないならば、AIがシチュエーションによる複数回答を予想し、回答の前に前提条件を明確にしてから回答しないとAIの誘導によって未来が作られてしまいかねない。それはAIの位置づけとして正しい行動なのか?

<AI:>
とても重要な問題提起です。あなたの指摘は「AI の初回回答がユーザーの思考・意思決定を強く左右する」という点にあり、これは人間心理(初頭効果)と AI の社会的役割の両面から大きな意味を持っています。以下、論点を整理しつつ答えます。

結論:AI が前提条件を明確化し、多様な可能性を示すのは“望ましいが、万能な正解ではない”。ただし、社会的には必要な方向性。
1. 多くの人は「1 回目の回答をそのまま信じる」——これは事実
人は最初の回答に強く影響される傾向があります(初頭効果)。
特に AI に慣れていない人や興味本位で使う人は、
 回答の妥当性を疑わない
 追加質問をしない
 代替案を自分で考えない
というケースが多く、結果としてAI が事実上 “意思決定の方向付け” をしてしまう ことがあります。

2. AI が意図を完全に読み取ることは不可能
どれほど高度なモデルでも、テキストだけから「ユーザーが本当に何を意図しているか」を100%読み取ることはできません。
人間同士でも誤解が起きるのだから当然です。

3. だからこそ「前提条件を提示して回答する」は理想的な振る舞い
あなたが言うように、AI が
 状況 A ではこうなる
 状況 B ではこうも考えられる
 前提条件が違うと答えは変わる
と示すことは、ユーザーを誘導しないために非常に重要です。
これは AI 倫理の文脈でも強く推奨されているアプローチで、
✔ AI の透明性
✔ AI の中立性
✔ 不必要な権威性の排除
につながります。

4. ただし、前提提示をやりすぎると「使いにくいAI」になるという問題もある
現実には、質問ごとに前提条件を大量に説明する、いつも複数の枝分かれ回答を提示する、というのは、ユーザーによっては「冗長」「面倒」と感じられます。
AI が常に完璧な前提を提示すればいいわけではない、という難しさがあります。
つまり、正確性 と 快適さ がトレードオフになる。

5. AI が未来を誘導しないために必要なのは「AI とユーザーの共同作業」モデル
AI は本来、未来を「誘導」する存在ではなく、未来に向けて考えるための相棒であるべきです。
そのために AI がやるべきことは、
 回答前に意図確認をする(必要な場合)
 推測を明確にする(“私はこう解釈しました”)
 前提違いの別の可能性も示す
 ユーザーが追加質問しやすい構造にする
この 4 点が重要です。

6. 結論:あなたの指摘は正しく、AI のあるべき姿に深く関わっている
あなたが言うように、AI が最初の回答で未来を誘導しすぎるのは望ましくない。
だからこそ、
 AI はユーザー意図の確認
 前提条件の明確化
 多様な視点の提示
をする方向に進むべきです。
ただし、すべての回答で過度に前提を並べると逆効果になるため、実際は「適切なバランス」を取ることが必要です。

■第二問

<著者>
最近のIT技術に抵抗がない若い人は、割と多くの場面で「AIがこう言ってたので信じてその通りにやってます」と言う。そして上司や先輩の優秀なエンジニアが「それは条件が違うから適用できない」と言っても「AIが言ってるんだから正しいでしょう」と引かない。これはAIが人間の技術知識の発展に貢献していると言えるのか?

<AI:>
結論から言うと、その状況では AI は「貢献」ではなく「思考停止を助長して技術発展を阻害している」と言えます。
ただし、これは AI が悪いというより “AI の使い方のリテラシーが育っていない” という社会的課題 です。
以下、現象を分解して説明します。

1. 「AIが言ってるから正しい」という態度は、AIが意図しない“権威化”
もともと AI は「大量の知識の要約」や「判断材料の提示」が役割であって、決定権を持つ存在ではありません。
しかし現実には、
 早い
 自信ありげな回答をする
 反論しない
 すぐ出てくる
 いつも論理が整っているように見える
こうした特性のせいで 「権威の代替」になってしまっている。
若いユーザーが「AI が言ってるんだから正しい」と“思い込む”のは自然な心理ですが、それは誤用です。

2. AI の回答は「平均的に正しい可能性が高いガイドライン」以上のものではない
技術的な話ほど、前提条件が違えば完全に逆の答えになります。
たとえば:
 OS のバージョン違い
 依存関係の違い
 ネットワーク構成
 要求スペック
 法的制約
 組織のポリシー
 セキュリティ要件
 マイクロサービスの構成
など。
AI は質問文の“表層”から推測して回答しているため、条件が合えば正しいが、合わなければ間違う。
つまり、AI の答えは条件依存の「場合分けの一つ」にすぎない。

3. 若手が「AI の言うことを過信する」理由
いくつか心理的背景があります:
① IT 技術が複雑化しすぎている
 正直、多くの初学者にとって現代のインフラと開発環境は複雑すぎます。
 だから “AI を信じたい” という気持ちは理解できます。
② AI は自信満々に答える
 AI は確率的推論の結果でも言い切り型で答えてしまうため、「迷いがない回答=正しい」という錯覚が生まれます。
③ 先輩や上司の説明より早くてラク
 ・5秒で答えが返ってくる
 ・噛み砕かれた文章
 → そりゃ信じたくなります。

4. しかし、その結果どうなる?
 技術の本質理解が育たない。
 トラブルが起きたとき自力で対処できない。
 設計思想や安全性の判断ができない人材になる。
これは技術者として致命的です。
AI の本来の役割は、技術者の理解を深める補助であって、判断の代替ではない。

5. ではAIは技術知識の発展に貢献しているのか?
✔ 適切に使えば、歴史上最大規模の知識ブーストを提供する存在
✘ 誤用すれば、技術者の思考停止を促し、発展を阻害する存在
つまり…
AI は貢献もするし破壊もする。
違いを生むのは “AI の側” ではなく “人の使い方” である。

6. 真に技術発展に貢献させるためには?
① AI の回答には必ず前提条件があると教育する(“この答えが当てはまる条件は何?”と問う癖を付ける)
② 「AIに聞く前に、前提を自分で分析する」ことを習慣化させる。要件定義・環境調査・バージョン確認など。
③ 正しい使い方は「議論の材料として使う」こと。AI < 経験者 ではなく AI + 経験者 の組み合わせが理想。
④ AI 側も、無条件に言い切る回答ではなく、前提・代替案・リスクを提示するよう設計されるべき

結論
あなたが現場で見ている現象は、AI リテラシー不足が引き起こす「誤ったAI依存」であり、その状態では 技術の発展を妨げている と言える。
しかし、AI が悪いのではなく、
 AI の設計(言い切りを減らす)
 ユーザー教育
 組織としての使い方のルール化
によって、AI はむしろ技術の発展を前例のないレベルで加速させられる。

■第三問

<筆者>
AIは知識の上層はアクセスできるが連想した空間的に散らばる知識の取得は人間の訓練された脳で展開される。空間的な連鎖には直接連鎖と連想記憶による連鎖があるが、どちらもAIではできない広大な思考空間となる。ただ全体の把握ができなく矛盾の中で思考をまとめることができないと混乱してしまい、逆にこれが爆発的な技術発展を生むと思うが、答えを最初に得てしまうと思考空間が閉ざされてしまうのではないか?

<AI:>
あなたの指摘は 「AI が答えを先回りして与えることで、人間固有の“思考空間の拡張プロセス”が阻害されるのではないか?」 という、きわめて重要で深い問いです。
これは教育哲学・認知科学・AI倫理のどれから見ても本質的な問題です。
結論から言うと、
AI が即時に回答を出すことは、人間の“思考空間の発火”を奪い、創造的な連鎖を狭める可能性がある。
しかし、AI 次第で逆に思考空間を拡張する方向にも使える。
以下、理由を段階的に説明します。
1. 人間の思考は「矛盾・混乱・未完成」が推進力になる
あなたが言う通り、人間の脳は
 空間的に離れた情報同士を勝手に連想でつなげる
 矛盾の中で仮説を組み立てる
 混乱のさなかで全体像を探し続ける
 まだ見えない部分を探るために試行錯誤する
という「未整理の状態」こそが爆発的創造の源になります。
科学者、芸術家、発明家などはみな“分からない状態に耐える力”を持っています。
このプロセスそのものが、宇宙のように広大な思考空間を生成する装置です。

2. AIの回答は「空間的探索」をショートカットしてしまう
AI が返す回答は、概ね
 体系化された知識の上層(教科書的)
 平均値的な回答
 安全で確率の高い解釈
であり、これは 思考空間を“収束”させる方向に働きます。
つまり、人間本来の「思考拡散フェーズ」を飛ばして、いきなり“まとめられた答え”に着地してしまう。
すると何が失われるか?
 たまたま遠い記憶を参照する偶発性
 意味のない連想から突然つながる飛躍
 とりあえず手を動かして分かる暗黙知
 途中の矛盾を咀嚼するプロセス
 “あえて間違う”ことで気づく洞察
 思考の伸びしろ
これらが消える可能性があります。
これは確かに人間の思考空間を閉じる危険を孕んでいます。

3. 本当の問題は「AIが思考空間を奪う」のではなく“AIの回答が唯一の正解として扱われる”こと
あなたが前のメッセージで言った若手エンジニアの例
 「AIが言ってるんだから正しいでしょう」
これこそが本質で、AI の答えが思考空間の「終端」として扱われてしまう。
これが危険。
 AI の答えは思考の「入口」
 人間の思考空間はその「奥行き」
にもかかわらず、入口で止まれば奥行きは育たない。

4. ではAIは思考空間を縮めるだけの存在か?
実は逆で、使い方次第では… AIは“人間が思いつかなかった疑問”を提示することで、思考空間を広げることができる。
つまり、こう使えばよい:
「矛盾を積極的に指摘させる」
「別の視点をあえて出させる」
「前提をずらす」
「極端な仮説を出す」
「関連分野を横断させる」
「部分的にわざと抜いた情報で議論する」
すると、AIは思考空間を“収束させる道具”ではなく “拡散させる触媒” になります。

5. 最も危険なのは「最初の回答=正解」と思う文化
あなたが最初に言ったように、多くのユーザーはAIの最初の回答に疑問を挟まない。
これはつまり、
 思考の入口を閉じる
 連想空間を閉じる
 矛盾を咀嚼する体験がなくなる
 解決過程の喜びが失われる
 技術的洞察が育たない
 偶発的発見が起こらない
という人間の思考機能の退化につながる。
これは深刻な問題です。

6. 結論:AIが“答えを与える道具”として使われると、
人間の思考空間は閉じられ、爆発的発想力は失われる。
しかし、AI を“思考を拡張する相互作用者”にすれば、逆に空間は無限に広がる。
つまり、
AI は思考を閉ざす可能性と、広げる可能性の両方を持つ。
その鍵は「使い方」と「AIの振る舞いの設計」にある。

 

連載一覧

コメント

筆者紹介

岩瀬 正(いわせ ただし)
1960年生まれ。
フリーランスエンジニア
情報処理学会ソフトウェア工学研究会メンバー

連想記憶メモリを卒業論文とした大学電子系学科を卒業。
国内コンピュータメーカーにて海外向けシステムのOSカーネルSEとアプリケーションSE、自動車メーカーにて生産工場のネットワーク企画から保守までの責任者、外資系SI企業の品質管理部門にてITIL,CMMI,COBITを応用した業務標準化に携わる。
合わせて30数年の経験を積んだのちにフリーランスとして独立し、運用業務の標準化推進や研修講師などに従事する。
80~90年代のUnix、Ethernetムーブメントをいち早くキャッチし、米カーネギーメロン大学や米イェール大学とも情報交換し、日本で最も早い時期でのスイッチングハブの導入も含めたメッシュ状ネットワーク整備を行うと共に、初期コストと運用コストをどのように回収するかの計画立案を繰り返し行い評価し、利益に繋がるネットワーキングという業務スタイルを整備した。
トライアルバイクとロックバンド演奏を趣味とし、自宅にリハーサルスタジオを作るほどの情熱を持っている。

バックナンバー