L'articolo ripercorre il percorso tracciato da Gilles Deleuze nel terzo capitolo di Differenza e ripetizione (1968), in cui viene criticata la tendenza del pensiero a rappresentarsi la propria attività come spontanea e naturale. Al contrario, richiamandosi ad Artaud, Deleuze intende mostrare come il pensiero non sia una facoltà innata ma debba essere generato, e come ciò non possa accadere che per tramite di un’esperienza traumatica. Il testo approfondisce quindi lo stretto nesso tra la filosofia dell'esperienza di Deleuze e la sua riflessione sulla genesi del pensiero. La prima implica una revisione del concetto di “trascendentale” che, lungi dall'essere inteso come l'insieme delle condizioni che rendono possibile l'esperienza, in questo contesto designa il campo meta-empirico di intensità che produce l'esperienza. L'ultima sezione del saggio illustra come il sorgere di questo strato inferiore della realtà generi un'esperienza specifica che sconvolge il coordinamento ordinario delle facoltà e quindi gli automatismi quotidiani del pensiero. Questo tipo di esperienza è ciò che nell’opera Proust e i segni (1964) è definito come un incontro involontario che costringe il pensiero a pensare.
The article tracks down the path traced by Gilles Deleuze in the third chapter Difference and Repetition (1968), where he critiques thought’s tendency to represent its own activity as spontaneous and natural. On the contrary, by recalling Artaud, Deleuze aims to show how thought is not an innate faculty but must be generated by a traumatic experience. The text therefore delves into the strong connection between Deleuze’s philosophy of experience and his reflection on the genesis of thought. The first one implies a revision of the concept of “transcendental”, which, far from being intended as the set of conditions which make experience possible, in this context designates the meta-empirical field of intensities which actively produces experience. The last section of the essay explains how the rise of this bottom layer of reality engenders a specific experience which disrupts the ordinary coordination of faculties and therefore the daily procedures of thought. This sort of experience is what Deleuze, in his previous work Proust and Signs (1964), defines as an involuntary encounter that forces thought into thinking.
La storia dell’intelligenza artificiale, dopo due decenni di sviluppi teorici e ingegneristici, sta attraversando una nuova svolta epocale. La diffusione dei modelli neurali sta rappresentando, infatti, un game-changer, sia in virtù delle incredibili possibilità di implementazione, dal riconoscimento di immagini alla produzione di linguaggio, che per le implcazioni filosofiche che tale diffusione porta con sé, dall’etica applicata all’epistemologia. Il presente scritto intende muovere proprio a partire da queste ultime. La competenza di macchine dalla configurazione ‘neuromorfica’, basate su reti di neuroni artificiali che trattano l’informazione in maniera sub-simbolica e dinamica, potrebbe infatti permettere di rimettere in discussione alcuni assunti del dibattito classico sull’intelligenza artificiale (e sull’intelligenza in generale) circa il rapporto tra sintassi, significati e substrati che li trasportano. Nel segno di una tradizione quasi secolare di intreccio tra ricerca cognitivista e AI, il presente articolo cercherà di far dialogare dialetticamente prospettive embodied della mente e modelli linguistici artificiali, esplorando le nuove, vibranti implicazioni che la ricerca e l’implementazione delle architetture neurali, su tutte i Large Language Models, stanno mettendo alla luce.
After two decades of theoretical and engineering developments, the history of artificial intelligence is going through a turning point. The spread of neural models in fact represents a game-changer, both in virtue of the incredible possibilities of implementation (from image recognition to language processing), and for the philosophical implications that such diffusion brings with it, from applied ethics to epistemology. This paper intends to start from the latter. The competence of machines with a ‘neuromorphic’ architecture, based on networks of artificial neurons that process information in a sub-symbolic and dynamic manner, could allow us to question certain assumptions of the classical debate on artificial intelligence (and on intelligence in general) regarding the relationship between syntax, meanings and the substrates that carry them. In the sign of an almost century-long tradition of intertwining cognitivist research and AI, this article will attempt to dialectically bring embodied perspectives of the mind and artificial language models into dialogue. It will explore the new, vibrant implications that research and implementation of neural architectures, above all Large Language Models, are bringing to light.
Nei recenti anni, in filosofia della mente si è molto dibattuto su quale sia il modo più appropriato di intendere l’oggetto di studio e la pratica delle scienze cognitive, e, a tal proposito, una notevole eterogeneità di cornici teoriche si sono delineate in letteratura. Da molti questa situazione di disaccordo viene percepita come problematica, e una soluzione spesso proposta è quella di far riferimento, per dirimere le dispute, a un marchio normativo della cognizione, da intendersi come un insieme di condizioni necessarie che un processo deve rispettare per poter essere considerato “cognitivo”. Nel presente saggio, argomenterò contro questa idea, mostrando come la proposta di un marchio siffatto sia inevitabilmente fallimentare. Inoltre, in alternativa, proporrò un quadro teoretico in cui la situazione di eterogeneità possa venire pacificamente accettata.
In recent years, within philosophy of mind it has been debated the best way to understand the subject and the practice of cognitive science, and, in this regard, a remarkable heterogeneity of theoretical frameworks have appeared in the literature. According to many authors, this situation of disagreement represents a problem, and a popular solution for resolving the disputes is to require a normative mark of the cognitive, i.e., a set of necessary conditions that a process must satisfy to be considered “cognitive”. In the present essay, I will argue against this idea, showing how any normative mark can’t be successful. Besides, I will propose a theoretical picture where the heterogeneity of the literature can be peacefully accepted.