Résumé
Les phénomènes de diffusion et de sorption comptent parmi les processus clés qui influent sur l’atténuation naturelle en subsurface. Si ces processus ont été massivement étudiés en milieu fracturé, il existe en revanche peu d’informations sur la non-linéarité de la sorption. Afin de combler cette lacune, un modèle numérique a été développé ; il couple la diffusion dans la matrice et la sorption non-linéaire à l’échelle d’une fracture unitaire en utilisant le concept de double porosité. La seule condition aux limites fixée pour toute l’étude est une source de soluté constante et continue. L’influence de l’intensité de la sorption sur la dispersivité et sur le coefficient de macro-dispersion est étudié via une méthode utilisant les moments spatiaux. Les résultats suggèrent que les mélanges de solutés sont significativement réduits par les phénomènes de sorption non-linéaires, comparativement aux mélanges causés par la diffusion pour des solutés à sorption linéaire. C’est pourquoi la dispersivité, dépendante du temps, est plus faible pour les solutés à sorption non-linéaire que pour les solutés à sorption linéaire, lors du régime pré-asymptotique. Des mélanges réduits ont également été observés pour des solutés à sorption non-linéaire, sous les mécanismes combinés de diffusion dans la matrice et de dégradation.