Définition organicisme

Citations Synonymes Définition
Organicisme (Nom commun)
[ɔʁ.ɡa.ni.sism] / Masculin
  • Théorie médicale qui s’efforce de rattacher toute maladie à une lésion matérielle d’un organe.