La storia dell’intelligenza artificiale, dopo due decenni di sviluppi teorici e ingegneristici, sta attraversando una nuova svolta epocale. La diffusione dei modelli neurali sta rappresentando, infatti, un game-changer, sia in virtù delle incredibili possibilità di implementazione, dal riconoscimento di immagini alla produzione di linguaggio, che per le implcazioni filosofiche che tale diffusione porta con sé, dall’etica applicata all’epistemologia. Il presente scritto intende muovere proprio a partire da queste ultime. La competenza di macchine dalla configurazione ‘neuromorfica’, basate su reti di neuroni artificiali che trattano l’informazione in maniera sub-simbolica e dinamica, potrebbe infatti permettere di rimettere in discussione alcuni assunti del dibattito classico sull’intelligenza artificiale (e sull’intelligenza in generale) circa il rapporto tra sintassi, significati e substrati che li trasportano. Nel segno di una tradizione quasi secolare di intreccio tra ricerca cognitivista e AI, il presente articolo cercherà di far dialogare dialetticamente prospettive embodied della mente e modelli linguistici artificiali, esplorando le nuove, vibranti implicazioni che la ricerca e l’implementazione delle architetture neurali, su tutte i Large Language Models, stanno mettendo alla luce.
After two decades of theoretical and engineering developments, the history of artificial intelligence is going through a turning point. The spread of neural models in fact represents a game-changer, both in virtue of the incredible possibilities of implementation (from image recognition to language processing), and for the philosophical implications that such diffusion brings with it, from applied ethics to epistemology. This paper intends to start from the latter. The competence of machines with a ‘neuromorphic’ architecture, based on networks of artificial neurons that process information in a sub-symbolic and dynamic manner, could allow us to question certain assumptions of the classical debate on artificial intelligence (and on intelligence in general) regarding the relationship between syntax, meanings and the substrates that carry them. In the sign of an almost century-long tradition of intertwining cognitivist research and AI, this article will attempt to dialectically bring embodied perspectives of the mind and artificial language models into dialogue. It will explore the new, vibrant implications that research and implementation of neural architectures, above all Large Language Models, are bringing to light.