« organicisme », définition dans le dictionnaire Littré
organicisme
Définition dans d'autres dictionnaires :
Fac-simile de l'édition originale du Littré (BNF)
organicisme
(or-ga-ni-si-sm') s. m.
- Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.
ÉTYMOLOGIE
Organique.