« californie », définition dans le dictionnaire Littré
californie
Définition dans d'autres dictionnaires :
Fac-simile de l'édition originale du Littré (BNF)
californie
(ka-li-for-nie) s. f.
- Contrée de l'Amérique du Nord où l'on a trouvé de riches mines d'or.
Fig. C'est une Californie, se dit pour exprimer la richesse d'un lieu, d'une maison, d'une entreprise.