مفاهیم

۷ گسل معرفتی بین انسان و ماشین

چرا هوش مصنوعی شبیه ما هست و نیست؟

همه ما تحت تأثیر توانایی‌های خیره‌کننده مدل‌های بزرگ زبانی (LLM) قرار گرفته‌ایم. اما مقاله‌ی اخیر والتر کواتروچوکی و همکارانش (دسامبر ۲۰۲۵) دست روی نکته‌ی حساسی می‌گذارد: شباهت خروجی‌های هوش مصنوعی به انسان، یک «هم‌ترازی سطحی» است که یک «شکاف ساختاری عمیق» را پنهان می‌کند [۱].

Image

نویسندگان این مقاله ۷ گسل یا نقطه گسست را معرفی می‌کنند که در آن‌ها مسیر تفکر انسان و پردازش ماشین کاملاً از هم جدا می‌شود. بیایید این ۷ گسل را با جزئیات بررسی کنیم:

۱. گسل اتصال (Grounding): حس در برابر متن

  • انسان: قضاوت ما ریشه در جهان فیزیکی دارد. وقتی کلمه «سیب» را می‌شنویم، مغز ما همزمان طعم، بو، سفتی و تجربه چیدن آن را بازیابی می‌کند. ما در یک محیط «چندحسی» رشد می‌کنیم که در آن سیگنال‌های اجتماعی به اندازه خود کلمات مهم هستند [۲].

  • هوش مصنوعی: LLMها در خلاء حسّی متولد می‌شوند. تمام دنیای آن‌ها «متن» است. آن‌ها معنا را نه از تجربه واقعیت، بلکه از روابط آماری بین نمادها بازسازی می‌کنند.

  • مثال: هوش مصنوعی ممکن است تفاوت ظریف بین «کنایه» و «صداقت» را تشخیص ندهد، چون لحن صدا یا تنش موجود در فضا را حس نمی‌کند [۳].

۲. گسل تجزیه (Parsing): درک موقعیت در برابر تکه‌تکه کردن (Tokenization)

  • انسان: ما وقتی با یک موقعیت روبرو می‌شویم، آن را به مفاهیم معنادار تجزیه می‌کنیم. در واقع مغز ما به طور مداوم در حال پیش‌بینی و ساختاربندی به محیط است [۴].

  • هوش مصنوعی: ماشین به جای درک موقعیت، متن را به قطعات ریزی به نام «توکن» تقسیم می‌کند. این فرآیند کاملاً مکانیکی و فاقد درک معنایی از پدیده‌هاست.

  • مثال: اشتباهات فاحش در تشخیص پیشوندهای نفی یا کلمات مرکب نشان می‌دهد که ماشین صرفاً با قطعات متنی بازی می‌کند، بدون اینکه معنای واقعی آن‌ها را بفهمد [۵].

۳. گسل تجربه (Experience): خاطرات زیسته در برابر الگوهای آماری

  • انسان: ما دارای «حافظه اپیزودیک» هستیم؛ یعنی می‌توانیم به گذشته‌ی خودمان برگردیم و از تجربیات شخصی درس بگیریم [۶].

  • هوش مصنوعی: ماشین هیچ «گذشته‌ای» ندارد. او فقط در یک فضای احتمالی، کلماتی را پیدا می‌کند که معمولاً کنار هم می‌آیند. او درکی از پایداری اشیاء یا دنیای فیزیکی ندارد [۷].

  • مثال: پاسخ‌های هوش مصنوعی درباره پدیده‌های فیزیکی صرفاً بازتاب تکرار آن جملات در کتاب‌هاست، نه درک واقعی از قوانین طبیعت.

۴. گسل انگیزه (Motivation): اهداف حیاتی در برابر بهینه‌سازی ریاضی

  • انسان: تفکر ما «ارزش‌محور» است. ما برای بقا، لذت یا دوری از رنج قضاوت می‌کنیم [۸].

  • هوش مصنوعی: ماشین هیچ هدف درونی یا ترسی ندارد. تنها موتور محرک او یک فرمول ریاضی برای کاهش خطای پیش‌بینی است. او به حقیقت یا پیامد اخلاقی پاسخش اهمیتی نمی‌دهد [۹].

۵. گسل علیت (Causality): درک «چرا» در برابر همبستگی سطحی

  • انسان: مغز ما یک «ماشین علت و معلولی» است و دائماً مدل‌های ذهنی می‌سازد تا بفهمد اگر فلان کار را بکنیم، چه نتیجه‌ای می‌گیریم [۱۰].

  • هوش مصنوعی: LLMها در دنیای «همبستگی‌ها» زندگی می‌کنند. آن‌ها می‌دانند کلمه A معمولاً بعد از کلمه B می‌آید، اما علت آن را نمی‌دانند و به همین دلیل در برابر «میان‌برهای یادگیری» و تداعی‌های اشتباه بسیار آسیب‌پذیرند [۱۱].

۶. گسل خودآگاهی معرفتی (Metacognition): مدیریت تردید در برابر اعتماد‌به‌نفس اجباری

  • انسان: ما می‌توانیم بر فرآیند تفکر خود نظارت کنیم، خطاها را تشخیص دهیم و در صورت تردید، قضاوت را متوقف کنیم [۱۲].

  • هوش مصنوعی: ماشین‌ها فاقد توانایی تشخیص ندانستن هستند. آن‌ها به گونه‌ای طراحی شده‌اند که همیشه محتمل‌ترین کلمه بعدی را تولید کنند، که همین امر منجر به تولید «توهمات» با اعتمادبه‌نفس بالا می‌شود [۱۳].

۷. گسل ارزش (Value): مسئولیت‌پذیری در برابر توزیع احتمالات

  • انسان: قضاوت‌های ما با «اعتبار» و «مسئولیت» گره خورده است. ما می‌دانیم که حرف‌هایمان در دنیای واقعی پیامد دارد [۱۴].

  • هوش مصنوعی: ماشین فقط یک پیش‌بینی احتمالی انجام می‌دهد. او نمی‌تواند از نظر اخلاقی از پاسخ خود دفاع کند، چون اساساً فرآیند تولید پاسخ او فاقد ارزش‌گذاری انسانی است [۱۵].


نتیجه‌گیری برای متخصصان

مقاله تحلیلی کواتروچوکی به ما هشدار می‌دهد که ما در دوران اپیستمیا (Epistemia) هستیم؛ وضعیتی که در آن «خوش‌بیانی زبانی» جایگزین «سنجش حقیقت» شده است. خطر اصلی در اینجا نه تولید اطلاعات غلط، بلکه حذف تدریجی فرآیند «قضاوت انسانی» و جایگزینی آن با مصرف منفعلانه خروجی‌های ماشین است [۱].


منابع:

[1] Quattrociocchi, W., Capraro, V., & Perc, M. (2025). Epistemological Fault Lines Between Human and Artificial Intelligence.
[2] Gibson, J. (1979/2014). Ecological Approach to Visual Perception.
[3] Van Kleef, G. A. (2009). How emotions regulate social life.
[4] Clark, A. (2013). Whatever next? predictive brains, situated agents, and the future of cognitive science.
[5] Chai, Y., et al. (2024). Tokenization falling short: On subword robustness in large language models.
[6] Tulving, E. (2002). Episodic memory: From mind to brain.
[7] Bommasani, R., et al. (2021). On the opportunities and risks of foundation models.
[8] Higgins, E. T. (1997). Beyond pleasure and pain.
[9] Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data.
[10] Sloman, S. A. (2005). Causal Models: How People Think About the World and Its Alternatives.
[11] Geirhos, R., et al. (2020). Shortcut learning in deep neural networks.
[12] Botvinick, M. M., et al. (2001). Conflict monitoring and cognitive control.
[13] Kalai, A. T., & Vempala, S. S. (2024). Calibrated language models must hallucinate.
[14] Whitley, B. E., & Greenberg, M. S. (1986). The role of eyewitness confidence in juror perceptions of credibility.
[15] Loru, E., et al. (2025). The simulation of judgment in LLMs.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا