
همه ما تحت تأثیر تواناییهای خیرهکننده مدلهای بزرگ زبانی (LLM) قرار گرفتهایم. اما مقالهی اخیر والتر کواتروچوکی و همکارانش (دسامبر ۲۰۲۵) دست روی نکتهی حساسی میگذارد: شباهت خروجیهای هوش مصنوعی به انسان، یک «همترازی سطحی» است که یک «شکاف ساختاری عمیق» را پنهان میکند [۱].
نویسندگان این مقاله ۷ گسل یا نقطه گسست را معرفی میکنند که در آنها مسیر تفکر انسان و پردازش ماشین کاملاً از هم جدا میشود. بیایید این ۷ گسل را با جزئیات بررسی کنیم:
۱. گسل اتصال (Grounding): حس در برابر متن
-
انسان: قضاوت ما ریشه در جهان فیزیکی دارد. وقتی کلمه «سیب» را میشنویم، مغز ما همزمان طعم، بو، سفتی و تجربه چیدن آن را بازیابی میکند. ما در یک محیط «چندحسی» رشد میکنیم که در آن سیگنالهای اجتماعی به اندازه خود کلمات مهم هستند [۲].
-
هوش مصنوعی: LLMها در خلاء حسّی متولد میشوند. تمام دنیای آنها «متن» است. آنها معنا را نه از تجربه واقعیت، بلکه از روابط آماری بین نمادها بازسازی میکنند.
-
مثال: هوش مصنوعی ممکن است تفاوت ظریف بین «کنایه» و «صداقت» را تشخیص ندهد، چون لحن صدا یا تنش موجود در فضا را حس نمیکند [۳].
۲. گسل تجزیه (Parsing): درک موقعیت در برابر تکهتکه کردن (Tokenization)
-
انسان: ما وقتی با یک موقعیت روبرو میشویم، آن را به مفاهیم معنادار تجزیه میکنیم. در واقع مغز ما به طور مداوم در حال پیشبینی و ساختاربندی به محیط است [۴].
-
هوش مصنوعی: ماشین به جای درک موقعیت، متن را به قطعات ریزی به نام «توکن» تقسیم میکند. این فرآیند کاملاً مکانیکی و فاقد درک معنایی از پدیدههاست.
-
مثال: اشتباهات فاحش در تشخیص پیشوندهای نفی یا کلمات مرکب نشان میدهد که ماشین صرفاً با قطعات متنی بازی میکند، بدون اینکه معنای واقعی آنها را بفهمد [۵].
۳. گسل تجربه (Experience): خاطرات زیسته در برابر الگوهای آماری
-
انسان: ما دارای «حافظه اپیزودیک» هستیم؛ یعنی میتوانیم به گذشتهی خودمان برگردیم و از تجربیات شخصی درس بگیریم [۶].
-
هوش مصنوعی: ماشین هیچ «گذشتهای» ندارد. او فقط در یک فضای احتمالی، کلماتی را پیدا میکند که معمولاً کنار هم میآیند. او درکی از پایداری اشیاء یا دنیای فیزیکی ندارد [۷].
-
مثال: پاسخهای هوش مصنوعی درباره پدیدههای فیزیکی صرفاً بازتاب تکرار آن جملات در کتابهاست، نه درک واقعی از قوانین طبیعت.
۴. گسل انگیزه (Motivation): اهداف حیاتی در برابر بهینهسازی ریاضی
-
انسان: تفکر ما «ارزشمحور» است. ما برای بقا، لذت یا دوری از رنج قضاوت میکنیم [۸].
-
هوش مصنوعی: ماشین هیچ هدف درونی یا ترسی ندارد. تنها موتور محرک او یک فرمول ریاضی برای کاهش خطای پیشبینی است. او به حقیقت یا پیامد اخلاقی پاسخش اهمیتی نمیدهد [۹].
۵. گسل علیت (Causality): درک «چرا» در برابر همبستگی سطحی
-
انسان: مغز ما یک «ماشین علت و معلولی» است و دائماً مدلهای ذهنی میسازد تا بفهمد اگر فلان کار را بکنیم، چه نتیجهای میگیریم [۱۰].
-
هوش مصنوعی: LLMها در دنیای «همبستگیها» زندگی میکنند. آنها میدانند کلمه A معمولاً بعد از کلمه B میآید، اما علت آن را نمیدانند و به همین دلیل در برابر «میانبرهای یادگیری» و تداعیهای اشتباه بسیار آسیبپذیرند [۱۱].
۶. گسل خودآگاهی معرفتی (Metacognition): مدیریت تردید در برابر اعتمادبهنفس اجباری
-
انسان: ما میتوانیم بر فرآیند تفکر خود نظارت کنیم، خطاها را تشخیص دهیم و در صورت تردید، قضاوت را متوقف کنیم [۱۲].
-
هوش مصنوعی: ماشینها فاقد توانایی تشخیص ندانستن هستند. آنها به گونهای طراحی شدهاند که همیشه محتملترین کلمه بعدی را تولید کنند، که همین امر منجر به تولید «توهمات» با اعتمادبهنفس بالا میشود [۱۳].
۷. گسل ارزش (Value): مسئولیتپذیری در برابر توزیع احتمالات
-
انسان: قضاوتهای ما با «اعتبار» و «مسئولیت» گره خورده است. ما میدانیم که حرفهایمان در دنیای واقعی پیامد دارد [۱۴].
-
هوش مصنوعی: ماشین فقط یک پیشبینی احتمالی انجام میدهد. او نمیتواند از نظر اخلاقی از پاسخ خود دفاع کند، چون اساساً فرآیند تولید پاسخ او فاقد ارزشگذاری انسانی است [۱۵].
نتیجهگیری برای متخصصان
مقاله تحلیلی کواتروچوکی به ما هشدار میدهد که ما در دوران اپیستمیا (Epistemia) هستیم؛ وضعیتی که در آن «خوشبیانی زبانی» جایگزین «سنجش حقیقت» شده است. خطر اصلی در اینجا نه تولید اطلاعات غلط، بلکه حذف تدریجی فرآیند «قضاوت انسانی» و جایگزینی آن با مصرف منفعلانه خروجیهای ماشین است [۱].
منابع:
[1] Quattrociocchi, W., Capraro, V., & Perc, M. (2025). Epistemological Fault Lines Between Human and Artificial Intelligence.
[2] Gibson, J. (1979/2014). Ecological Approach to Visual Perception.
[3] Van Kleef, G. A. (2009). How emotions regulate social life.
[4] Clark, A. (2013). Whatever next? predictive brains, situated agents, and the future of cognitive science.
[5] Chai, Y., et al. (2024). Tokenization falling short: On subword robustness in large language models.
[6] Tulving, E. (2002). Episodic memory: From mind to brain.
[7] Bommasani, R., et al. (2021). On the opportunities and risks of foundation models.
[8] Higgins, E. T. (1997). Beyond pleasure and pain.
[9] Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data.
[10] Sloman, S. A. (2005). Causal Models: How People Think About the World and Its Alternatives.
[11] Geirhos, R., et al. (2020). Shortcut learning in deep neural networks.
[12] Botvinick, M. M., et al. (2001). Conflict monitoring and cognitive control.
[13] Kalai, A. T., & Vempala, S. S. (2024). Calibrated language models must hallucinate.
[14] Whitley, B. E., & Greenberg, M. S. (1986). The role of eyewitness confidence in juror perceptions of credibility.
[15] Loru, E., et al. (2025). The simulation of judgment in LLMs.

