ビジネス

AIは人間の知性を奪うのか?データから知恵への階段を生成AI時代に再定義する

DIKIWモデルと最新の実証研究から見える「考え続ける」価値の本質と教育の枠組みの変革

2025-04-09
27分
ChatGPT
生成AI
教育変革
AI協働
教育パラダイム
学びのデザイン
知識階層
吉崎 亮介

吉崎 亮介

株式会社和談 代表取締役社長 / 株式会社キカガク創業者

AIは人間の知性を奪うのか?データから知恵への階段を生成AI時代に再定義する

はじめに「考える」ことの意義

漫画『チ。―地球の運動について―』には、知性の本質を鋭く突いた名言がある。

「考えろ。その為に文字を学べ。本を読め。『物知りになる為』じゃないぞ。『考える為』だ。一見、無関係な情報と情報の間に関わりを見つけ出せ。ただの情報を、使える知識に変えるんだ。その過程に、知性が宿る。」

この言葉との出会いは、私にとって思考の転機となった。15 世紀のヨーロッパを舞台に、当時異端とされた地動説に命をかける人々の物語(フィクション)は、現代の AI 革命期と構造的に驚くほど類似している。

宗教の時代には神が教えをくれたが、科学的に考えるとそれを人が考えなければならない。同様に、AI の時代には AI が知識を与えてくれるが、人としての価値判断は人間自身が深く考えなければならない。

この構造的類似性に気づいたとき、現代の「知識と知性の危機」がより鮮明に見えてきた。宗教から科学への大転換期、権威に頼らず自らの頭で考えることの重要性が問われたように、今また私たちは AI という新たな「権威」に直面し、「考える」という行為の本質を問い直す時代に生きている。

AI 教育事業を展開してきた私が、日々この問いと向き合うなかで見えてきたのは、ChatGPT が人間から奪ったのは「知識」ではなく「知性」ではないかという仮説だ。知識の検索と整理、そして情報間の関連性を見出す「知性」の領域までも AI に委ねてしまう傾向が、特に教育現場で顕著に現れている。

そこで本稿では、「データ・情報・知識・知性・知恵」の階層構造を手がかりに、生成 AI が人間の「知性」に与える影響を考察する。哲学的考察と最新の実証研究を統合しながら、AI 時代においても揺るがない「考え続ける価値」を探っていきたい。

知の階層構造の再考

DIKW モデルの進化と批判

私たちの知的活動を階層構造として捉える試みは、情報科学の歴史の中で繰り返されてきた。その代表的な枠組みがDIKW モデル(データ・情報・知識・知恵)である。この概念はラッセル・アコフの 1989 年の論文によって広く知られるようになり1、情報科学から経営学、教育学にまで影響を与えてきた。

DIKW モデルは、最も基本的な要素である「データ」から始まり、段階的に高次の知的活動へと進む階層構造を示している。しかし、このモデルには多くの批判も存在する。2009 年にマーティン・フリックは「DIKW ヒエラルキーは不健全で方法論的にも望ましくない」と批判し、その論理的誤りを指摘した2

フリックによれば、DIKW モデルは帰納主義的発想(より多くのデータを集めれば自動的に知識や知恵に至るという考え)に暗黙のうちに依拠しており、創造的・批判的思考を軽視していると警鐘を鳴らした2。さらに、各概念(データ・情報・知識・知恵)の定義が相互に循環参照的であり厳密な定義が難しいという指摘もある3

図表を生成中...

DIKIW モデルと「知性」の位置づけ

こうした批判を受け、2013 年にアンソニー・リューはDIKIW モデルを提案した4。このモデルでは、知識と知恵の間に「知性(Intelligence)」の層が追加されている。

リューが「知性」層を追加した最大の理由は、知識から知恵への飛躍が不自然すぎると考えたからだ。知識を適用・評価して知恵に昇華する中間段階として、知性が位置づけられるべきだと指摘した4。知識を単に蓄積するだけでは知恵には至らず、知識を活用し評価する「知性」というプロセスを経て初めて知恵に到達するという考え方である。

DIKIW モデルにおける各層の定義は以下のとおりだ。

  1. データ(Data):文脈や解釈を持たない生の記録であり、単なる符号やシンボルの集合。例えば「32.5」「東京」「3 月 15 日」などの断片的な値。

  2. 情報(Information):データに意味づけや関連づけが行われたもので、文脈上有用なメッセージとなる。「東京の 3 月 15 日の気温は 32.5 度」という文など。

  3. 知識(Knowledge):情報を人間の頭脳が咀嚼して得られる理解や技能。「知っていること(know-what)」「やり方がわかること(know-how)」「理由がわかること(know-why)」の 3 要素を含む5

  4. 知性(Intelligence):知識を応用し、パターンを認識し、推論し、問題解決する能力。「学習しパターンを認識する」「論理的・批判的に思考する」「創造的に発想する」「適切な判断を下す」といった精神的プロセスの総和4

  5. 知恵(Wisdom):知識と知性を基に物事の本質を見抜き、価値判断や意思決定を的確に下せる人格的な洞察力。「普遍的真理の理解」「正しい判断」「適切な実行」という 3 要素から定義される6

この DIKIW モデルの重要な点は、各層の関係が単純な一方向の階層ではなく、相互に影響し合う動的な関係にあることだ。知性は知識の応用であると同時に、新たな知識の獲得にも関わる。また、知恵は知性に基づきながらも、知性の働きを方向づける。

アリストテレスのフロネシスと現代の知性論

知性と知恵の関係を考える上で、古代ギリシャの哲学者アリストテレスの知識分類は今日でも示唆に富む。アリストテレスは人間の知の在り方を「エピステーメー(科学的知識)」「テクネー(技術的知識)」「フロネシス/プロネーシス(実践的知恵)」の 3 つに分類した7

特に注目すべきはフロネシスという概念だ。これは単なる知識や技術ではなく、「人々や共同体の善のために何が最善かを判断できる能力」である8。アリストテレスは「思慮とは行為に関わる真理をとらえる知的徳である」と述べ9、知恵を現実の行動や倫理と結び付けた。

現代の DIKIW モデルと比較すると、アリストテレスのフロネシス(実践知・思慮)は「知性」と「知恵」の両方にまたがる概念だと理解できる。フロネシスには判断力や応用力(知性の特徴)と倫理的価値観に基づく決断(知恵の特徴)の両面が含まれているのだ。

「知性」の複雑な構造と機能

知性の多次元性

DIKIW モデルにおける「知性」は単一の能力ではなく、複数の認知機能や精神活動の複合体だ。知性研究の文献を統合すると、知性には少なくとも以下の 4 つの主要な構成要素があることがわかる。

図表を生成中...
  1. パターン認識:データや情報の中から規則性やパターンを見出す能力。これは機械学習の中核的機能でもある。

  2. 推論能力:既知の前提から論理的に結論を導き出す能力。演繹的推論、帰納的推論、類推的推論などが含まれる。

  3. 創造的思考:既存の知識や概念を新しい方法で組み合わせたり、従来の枠組みを超えた発想を生み出したりする能力。

  4. 判断力:複数の選択肢から最適な行動や決定を選ぶ能力。状況や文脈を考慮して適切な判断を下す。

これらの構成要素はそれぞれ独立しているのではなく、相互に連携しながら機能している。例えば、優れた判断を下すためには、状況のパターンを認識し、論理的に推論し、時には創造的な解決策を考案する必要がある。

AI による知性機能の代替可能性

現代の AI、特に大規模言語モデル(LLM)は、これらの知性機能の一部を代替し始めている。上の図に示したように、それぞれの知性機能はある条件下では AI が対応可能だが、別の条件下では依然として人間が優位性を持つという複雑な関係にある。

特に ChatGPT のような生成 AI は、膨大なテキストデータから学習することで、パターン認識と推論能力の一部において人間に匹敵する性能を示すようになった。しかし、その領域はある程度限定されている。

一方、創造的思考においては、AI は既存の要素を組み合わせて「新しさ」を生み出すことはできるが、本質的に新しいパラダイムを生み出すような創造性は依然として人間の領域だ。また、倫理的・価値的判断においても、AI はプログラムされた価値観に基づいて判断することはできても、状況の本質を深く理解した上での倫理的判断は人間の領域に留まっている。

つまり、知性の「浅い」部分は AI が代替しつつあるが、「深い」部分は依然として人間の専有領域だと言える。問題は、生成 AI が「浅い知性」の部分を代替することで、人間が知性のすべての領域を放棄してしまう危険性だ。

AI と人間の知性の変化する関係

時代とともに変わる AI と人間の領域

AI と人間の知的領域の境界は、技術の進化とともに絶えず変化している。DIKIW モデルの観点から見ると、この変化は以下のように視覚化できる。

図表を生成中...

2010 年頃は、AI はデータ処理と情報整理を主な領域としていた。検索エンジンやデータベースが典型例だ。2025 年現在、AI は知識の領域を完全に征服し、知性の一部にも深く踏み込んでいる。そして将来的には、知性の大部分が AI の領域となり、知恵の一部にも影響を及ぼす可能性がある。

問題は、技術的に可能なことと、人間の知的発達にとって望ましいことは必ずしも一致しないという点だ。生成 AI が「知性」領域の多くの機能を代替できるようになったとしても、人間がそれらの機能を完全に AI に委ねてしまうことは、長期的には知的能力の衰退を招く危険性がある。

「知性のアウトソーシング」論争

哲学・教育学者のクリストフ・ロイヤーは論考で「ChatGPT は高等教育における批判的思考の終焉を告げるものなのか?つまり人間性の機械へのアウトソーシング(外部委託)を進めてしまう危険な道具なのか?」という問いを立てた10

これは「アウトソーシング・ヒューマニティ(人間性の機械への外部委託)」とも呼ぶべき現象への懸念だ。人間の本質的な営みである「考えること」を外部委託してしまうリスクについての警鐘である。

ロイヤーの研究は、ChatGPT には確かに驚くべき能力と限界が同居しており、その弱点を直視することで却って批判的思考を再活性化できると指摘する10。例えば、ChatGPT はしばしば事実誤認や論理的不整合を含む文章をもっともらしく生成するため、使う側には内容を検証し吟味する力が求められる。

テクノロジストとして、また教育者として最も懸念しているのは、この「楽な選択」の誘惑だ。思考は本来、時間と労力を要する。自分の頭で考え抜くことは、時に苦痛を伴う。ChatGPT はこの「苦痛」から私たちを解放し、即座に「それらしい答え」を提示してくれる。

だが、考えることを放棄した先に、私たちが思い描く未来はない。楽をした先には、自分たちの思い描いた未来はないのだ。

ChatGPT による「考えるプロセス」の代行

ChatGPT の最も衝撃的な点は、「考えるプロセス」そのものを代行できることにある。従来の検索エンジンが情報の断片を提供するだけだったのに対し、ChatGPT は「考える」というプロセス全体をシミュレートする。

例えば、あるビジネス課題について検討する場合、ChatGPT は以下のようなプロセスを代行できる。

図表を生成中...

これは「知性」の中核的機能である「問題解決」「推論」「パターン認識」に深く関わるプロセスだ。AI が単に知識を提供するだけでなく、このような思考の流れまで模倣できることは、教育者として私に深い懸念を抱かせる。

ニューヨーク市教育局が ChatGPT を学校のネットワークから遮断した理由も明確だった。「このツールは質問に即座に答えを提供できるが、それでは批判的思考や問題解決のスキルが養われない11。これは、単なるカンニング防止策ではなく、学びの本質に関わる根本的懸念だった。

「ゴールの定義者」としての人間

一方で、ChatGPT の限界も明らかになりつつある。現状の AI は私たちに代わって「何が重要か」を定義することはできない。つまり、「ゴールの定義者」としての役割は依然として人間にある

AI 教育事業を通じて私が観察してきたのは、AI を本当に使いこなせる人は、「AI なしでもゴールできる実力がある人」だということだ。彼らは AI に何を質問すべきか、AI の回答をどう評価すべきか、そして AI の出力を目的にどう適合させるかを知っている。

これは、漫画『チ。』の言葉に戻ると、「情報と情報の間に関わりを見つけ出す」力が依然として重要であることを示している。AI は膨大な情報を提供するが、その関連性を見出し、本質を掴み、価値ある出力に変換するのは人間の役割なのである。

AI 学習への影響:実証研究の知見

バスタニらの画期的研究と「適切な困難さ」

ChatGPT のような生成 AI が学習にどのような影響を与えるのかについて、ペンシルバニア大学ウォートン・スクールのバスタニらのチームが画期的な研究結果を 2024 年に発表した12。この研究は約 1,000 人の高校生を対象に、AI が数学学習に与える影響を厳密に検証したものだ。

実験では、生徒を 3 つのグループに分けて学習効果を比較した。

図表を生成中...
  1. 無制限 AI 使用群(GPT Base):標準的な ChatGPT インターフェースを使って自由に課題に取り組むグループ
  2. 制約付き AI 使用群(GPT Tutor):教師の意図したヒントを段階的に与えるガードレール(安全策)付きの AI を使うグループ
  3. AI 非使用対照群:従来通り AI を使わずに学習するグループ

結果は衝撃的だった。AI を使用している間は確かに成績が向上した(GPT Base 群で 48%向上、GPT Tutor 群で 127%向上)。しかし、後日 AI アクセスを取り上げてテストを行うと、自由に AI を使っていたグループは AI を使わなかった対照群より成績が 17%も低下したのだ12

グラフを読み込み中...

これは、AI という「車椅子」に頼った学生が、自力で歩く力(問題解決力)を失ってしまったことを示している。一方、ガードレールつきでヒントを最小限に抑えた GPT Tutor 群ではこのような負の効果はほぼ見られなかった。

この研究から導かれる重要な示唆は、適切な制約のない AI 使用は、短期的な効率向上と引き換えに、長期的な学習能力を損なう可能性があるということだ。

このバスタニらの研究結果は、認知科学で長く指摘されてきた「望ましい困難さ」(desirable difficulties)の理論を裏付けるものだ13。この理論によれば、学習過程にある程度の困難さが含まれることで、記憶の定着や理解の深化が促進されるという。ChatGPT のような AI は、この「望ましい困難さ」を排除してしまう危険性がある。

安全策(ガードレール)の設計

バスタニらの研究が示す希望は、適切に設計されたガードレール(安全策)によって、AI の短期的効率と長期的学習の両立が可能かもしれないということだ。GPT Tutor 群がその可能性を示している。

効果的なガードレールの設計には、以下の原則が重要だ。

  1. 段階的ヒント:一度に全ての答えを与えるのではなく、徐々にヒントを提供する
  2. 思考過程の要求:単なる答えではなく、思考プロセスの説明を求める
  3. 反復的フィードバック:学習者の反応に基づいて適応的にサポートする
  4. 適切な困難さの保持:完全に障壁を取り除かず、適度な挑戦を残す

これらの原則を取り入れた AI 活用は、短期的効率と長期的な能力開発のバランスを取る可能性を秘めている。

教育パラダイムの変遷

技術革新と教育の歴史的相互作用

教育の歴史を振り返ると、技術革新と教育パラダイムの間には密接な関係があることがわかる。ChatGPT の登場もまた、この長い歴史の流れの中で捉えることができる。

教育パラダイムの主要転換点

1900年代初頭

進歩主義教育の台頭

ジョン・デューイが『民主主義と教育』で「行動による学習」を提唱し、暗記型教育から経験重視の教育へと転換した時期

1957年

スプートニク・ショック

ソ連の人工衛星打ち上げを契機に西側諸国で理数教育改革が進み、米国やヨーロッパ各国で科学教育強化策が実施された

1983年

「危機に立つ国家」報告(米国)

米国教育省が教育水準の低下に警鐘を鳴らし、「基礎学力の未修得は国家安全保障上の脅威」と警告。標準テスト重視の契機に

1990年代

インターネット革命

デジタル情報へのアクセスが変革し、1994年には米国で初のオンライン大学が認可。情報リテラシーが新たな教育目標として浮上

2012年

MOOCの台頭

CourseraやedXなど大規模オンライン講座(MOOC: Massive Open Online Course)の登場。数十万人規模の受講者を集め、高等教育の大衆化と自己学習の促進が進んだ

2020年

COVID-19パンデミック

世界の学習者90%(約15億人)が影響を受ける「教育史上最大の中断」。オンライン教育の普及が一気に加速した時期

2022年11月

ChatGPTの登場

公開2ヶ月で1億人が利用。教育現場に衝撃を与え、NY市などで学校での使用禁止措置も。AI時代の新たな教育モデル模索の始まり

2023年9月

UNESCO「AI活用指針」発表

「教育におけるジェネレーティブAI活用のための指針」が発表され、各国に教師研修や倫理規範の整備を呼びかけた転換点

この歴史的変遷を分析すると、いくつかの重要なパターンが浮かび上がる。

1. 技術革新とスキル定義の連動: 技術革新が起こるたびに、「何を学ぶべきか」という教育内容の再定義が行われてきた。例えば印刷技術の普及により、暗記から読解力へとスキル重視が移行した。今日の AI 革命もまた、「暗記」や「定型的問題解決」の価値を相対的に下げ、「問いを立てる力」や「AI の出力を評価する力」といった新たなスキルセットを重視する方向へと教育を押し動かしている。

2. 教育目標のシフト: かつての教育は「知識の獲得」を中心に置いていたが、インターネット時代には「情報評価能力」へ、そして AI 時代には「知識の活用と創造」へと重点がシフトしている。これは、DIKIW モデルで考えれば、より上位層のスキルに教育の焦点が移行していることを意味する。

3. 教師の役割変化: 講義中心の「知識伝達者」から、学習支援とファシリテーションを行う「学びの伴走者」へと教師の役割も変化してきた。AI 時代の教師は、さらに「知性と知恵の領域」に焦点をあてたメンターとしての役割が強まっている

生成 AI 時代の教育モデル

生成 AI 時代の教育は、どのようなモデルを目指すべきか。バスタニらの研究や教育史の分析から、以下の方向性が見えてくる。

1. 「考えるプロセス」を重視した評価: 単なる「正解」ではなく、その解にたどり着くまでの思考プロセスを評価する。例えば、解答だけでなく思考の道筋を説明させる問題形式や、多角的な視点からの分析を求める課題設計が重要になる。

2. プロジェクト型・探究型学習の強化: 定型的な問題解決は AI に任せ、より複雑で創造的なプロジェクトに取り組ませる。実世界の問題に取り組む PBL(Project-Based Learning)は、AI 時代こそ価値を増している。

3. 「望ましい困難さ」のデザイン: 学習過程に意図的に適切な困難さを組み込み、思考力や問題解決能力を養う。例えば、あえて AI 使用に制限を設けたり、AI の回答を批判的に検証させる活動を取り入れたりする。

4. 倫理的判断力の育成: 「知恵」の領域に関わる倫理的判断力や価値観に基づく意思決定能力の育成。技術的に可能なことと倫理的に妥当なことの区別を学ぶ機会が重要になる。

生成 AI 時代の教育モデルは、単に AI を活用するスキルだけでなく、「AI と共存しながらも、AI を超える人間固有の能力を育む」方向性を模索していくべきだろう。

AI 時代の知性育成:実践的アプローチ

効果的な学習設計の意思決定

学習効果を最大化するためには、目標や学習者の特性に応じて、AI の活用方法を適切に設計する必要がある。以下の意思決定フローは、効果的な学習設計のためのガイドラインとなる。

図表を生成中...

このフローチャートが示すように、学習目標の性質(基礎知識獲得・思考プロセス重視・創造的問題解決)、学習者の熟達度(初心者・中級者・上級者)、評価方法(結果重視・プロセス重視・転移能力重視)によって、AI の活用方法や制約条件は変わってくる。

重要なのは、AI を「常に使える」または「常に使えない」という二者択一ではなく、目的に応じた柔軟な活用設計だ。バスタニらの研究が示すように、特に思考プロセスを重視する学習では、AI に適切な制約を設けることが長期的な学習効果につながる。

「考えるプロセス」重視の評価法

AI 時代には、最終的な「答え」よりも、その答えに至るプロセスを評価することがより重要になる。以下のような評価アプローチが有効だ。

  1. 思考過程の可視化:解答だけでなく、その解に至るまでの思考プロセスを説明させる。例えば「解法の各ステップとその理由を説明せよ」という形式の問題。

  2. 多角的視点の要求:1 つの問題に対して複数の視点からの分析を求める。例えば「この問題に対する 3 つの異なるアプローチを示し、それぞれの長所と短所を比較せよ」。

  3. 反駁・批判の奨励:異なる意見や解法に対する批判的分析を評価の対象とする。例えば「この解法の潜在的な問題点を 3 つ挙げよ」。

  4. メタ認知の促進:自分の思考過程に対する内省を促す評価。例えば「あなたがこの問題を解く際に最も難しかった点は何か、どのようにそれを克服したか」。

これらのアプローチは、AI を使った場合でも、単に AI の出力をそのまま提出するのではなく、それを批判的に評価し、自分の思考で加工することを求める。

批判的思考と創造的思考の育成

AI 時代には、批判的思考(既存の情報を評価する能力)と創造的思考(新たな可能性を生み出す能力)がより一層重要になる。これらの能力を育成するアプローチとして以下が考えられる。

批判的思考の育成法

  • AI の出力を意図的に検証させる(例:AI が生成した記事の事実誤認を指摘させる)
  • 異なる AI の回答を比較分析させる
  • AI の背後にある前提や価値観を明らかにさせる

創造的思考の育成法

  • AI と人間の協働創造プロジェクト(例:AI が基本構造を生成し、人間が独自性を付加する)
  • 制約付きの創造的課題(例:特定の条件下で AI の力を借りて革新的なソリューションを考案する)
  • 領域横断的な統合プロジェクト(例:異なる分野の知識を AI の助けを借りて統合する)

重要なのは、AI を単なるツールとして使うのではなく、AI との対話を通じて自分の思考を発展させるメタ認知的アプローチだ。AI 時代の教育は「AI を使いこなす」ことではなく、「AI と共に考え、AI を超える」ことを目指すべきなのである。

結論:考え続ける価値

漫画『チ。』の世界では、宗教的権威から科学への大転換期において、「自ら考える」ことの重要性が描かれていた。そして今、AI という新たな権威が台頭する時代において、再び私たちは「考えること」の本質と向き合っている。

宗教の時代には神の教えが絶対であり、科学の時代には事実と論理による検証が中心となった。そして AI 時代には、膨大な情報と知識の海から本質を見抜き、価値ある判断を下す「知恵」が求められている。

DIKIW モデルの観点から見れば、AI はデータ・情報・知識の階層を担い、知性の一部も代替しつつある。しかし、最終的な「知恵」の領域は依然として人間固有の価値だ。この領域を育み、守り、発展させていくことが、AI 時代における私たちの責務ではないだろうか。

生成 AI が「知性」の領域に深く踏み込む現代において、私たちには 2 つの道がある。1 つは、思考のプロセスを AI に委ね、「楽な選択」を続ける道。もう 1 つは、AI を活用しながらも、自ら考え続け、真の知性と知恵を育む道だ

実証研究が示すように、短期的には「楽な選択」も効率的に見えるかもしれない。しかし長期的には、試行錯誤を経験し、自分の頭で考え抜くことこそが、真の知性と知恵を育む唯一の道なのである。

漫画『チ。』の言葉に立ち戻れば、「考えろ。その為に文字を学べ。本を読め。『物知りになる為』じゃないぞ。『考える為』だ。」これは、単なる知識の蓄積ではなく、それを活用して考え抜く力の重要性を説いている。AI 時代においても、この本質は変わらない。

だからこそ、時には「楽ではない選択」を意識的に選び、自らの頭で考え続けることこそが、真の知性と知恵を育む道なのだ。

今、あなたは何を「考え続けて」いるだろうか?

参考文献

Footnotes

  1. Ackoff, R. L. (1989). From Data to Wisdom. Journal of Applied Systems Analysis, 16, 3–9.

  2. Frické, M. (2009). The Knowledge Pyramid: A Critique of the DIKW Hierarchy. Journal of Information Science, 35(2), 131–142. 2

  3. Zins, C. (2007). Conceptual Approaches for Defining Data, Information, and Knowledge. Journal of the American Society for Information Science and Technology, 58(4), 479–493.

  4. Liew, A. (2013). DIKIW: Data, Information, Knowledge, Intelligence, Wisdom and their Interrelationships. Business Management Dynamics, 2(10), 49–62. 2 3

  5. Rowley, J. (2007). The Wisdom Hierarchy: Representations of the DIKW Hierarchy. Journal of Information Science, 33(2), 163–180.

  6. Bierly, P. E., Kessler, E. H., & Christensen, E. W. (2000). Organizational learning, knowledge and wisdom. Journal of Organizational Change Management, 13(6), 595–618.

  7. Aristotle. (4th century BC). Nicomachean Ethics. Book VI.

  8. Bratianu, C., & Bejinaru, R. (2023). From Knowledge to Wisdom: Looking beyond the Knowledge Hierarchy. Knowledge, 3(2), 196–214.

  9. Aristotle. (4th century BC). Nicomachean Ethics. Book VI, Chapter 5.

  10. Royer, C. (2024). Outsourcing Humanity? ChatGPT, Critical Thinking, and the Crisis in Higher Education. Studies in Philosophy and Education, 43(5), 479–497. 2

  11. Fox News (2023). NYC bans AI tool ChatGPT in schools amid fears of new cheating threat.

  12. Bastani, H., Bastani, O., Sungu, A., Ge, H., Kabakcı, Ö., & Mariman, R. (2024). Generative AI Can Harm Learning. Wharton School Research Paper. 2

  13. Bjork, R. A., & Bjork, E. L. (2011). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. Psychology and the real world: Essays illustrating fundamental contributions to society, 2(59-68).

吉崎 亮介

吉崎 亮介

株式会社和談 代表取締役社長 / 株式会社キカガク創業者

「知の循環を拓き、自律的な価値創造を駆動する」をミッションに、組織コミュニケーションの構造的変革に取り組んでいます。AI技術と社会ネットワーク分析を活用し、組織内の暗黙知を解放して深い対話を生み出すことで、創造的価値が持続的に生まれる組織の実現を目指しています。

最新のインサイトを受け取る

定期的なニュースレターで、技術とビジネスの境界領域に関する最新の記事や独自のインサイトをお届けします。