Professional Documents
Culture Documents
y1 = −x sin x.
On voit que, sur tout intervalle de temps fini, 0 < x < τ , où τ est indépen-
dant de ε, l’approximation obtenue est uniformément valable ; la correction
est petite. Ceci n’est plus vrai si l’intervalle de définition devient grand ; il
suffit de prendre ετ = 1 pour s’en rendre compte. Ce problème est qualifié de
séculaire parce qu’il introduit une perturbation singulière dans le développe-
ment du fait que l’intervalle considéré est trop grand. La terminologie provient
de l’étude des trajectoires des planètes dans le temps ; des solutions obtenues
par des méthodes de perturbation sont valables sur des intervalles de temps
courts mais la valeur des termes séculaires est irréaliste sur des périodes de
l’ordre du siècle.
La comparaison de ces approximations avec la solution exacte est éclai-
rante ; on a :
e−εx
y(x, ε) = √ sin 1 − ε2 x.
1 − ε2
L’approximation (2.2) se confond avec les premiers termes du développement
en série de Taylor de la solution exacte.
2.1 Problèmes réguliers et singuliers 13
y
1
y0
solution exacte
y0 + εy1
0
0 x 1
ε
il vient :
dY
Lε Y = t2 − εY = 0 avec Y |t=1 = 1. (2.6)
dt
Un développement direct du type :
conduit à l’approximation :
1 1 1 1
Y (t, ε) = 1 + ε 1 − + ε2 − + 2 + ··· . (2.7)
t 2 t 2t
Les approximations successives sont de plus en plus singulières au voisinage
de l’origine (Fig. 2.2). Ceci est très clair si l’on développe la solution exacte :
1
Y (t, ε) = exp −ε −1 . (2.8)
t
Cette caractéristique est aussi présente dans des problèmes analogues sus-
ceptibles d’un traitement particulier. On considère l’équation :
solution
Y exacte
0,5
Y0 + eY1
0
0 0,5 1
t
y0
2
+1
ε
y
solution
exacte
1
0
0 x 1
y0 + εy1
dy
Lε y = (x + εy) + y = 0 avec y|x=1 = 1. (2.9)
dx
La solution est recherchée sur l’intervalle 0 ≤ x ≤ 1.
Le développement direct :
y(x, ε) = y0 (x) + εy1 (x) + · · ·
conduit aux problèmes :
dy0
1. x + y0 = 0 avec y0 |x=1 = 1,
dx
dy1 dy0
2. x + y1 = −y0 avec y1 |x=1 = 0.
dx dx
Le résultat :
1 1 1
y(x, ε) = + ε 1 − 2 + ··· (2.10)
x 2x x
montre bien que la seconde approximation est plus singulière que la première
au voisinage de l’origine (Fig. 2.3). La solution exacte :
x x2 2
y(x, ε) = − + 2
+ +1 (2.11)
ε ε ε
est bornée à l’origine :
2
y(0, ε) =+1
ε
quel que soit ε > 0. Ceci est typique des problèmes séculaires.
d2 y dy
Lε y = ε + − a = 0 où 0 < a < 1, (2.12a)
dx2 dx
avec les conditions aux limites :
y0 = ax + A,
où A est une constante qu’il faut déterminer avec deux conditions aux limites
ce qui n’est, en général, pas possible. Cette situation est caractéristique de cer-
tains problèmes singuliers ; lorsque l’on fait ε = 0, l’équation réduite obtenue
est d’un ordre moins élevé que l’équation initiale.
Si l’on veut vérifier la condition en x = 0, on obtient :
y0 = ax.
y0 = ax + 1 − a (2.13)
qui est telle que y0 (0) = 1 − a ; la condition à l’origine n’est pas vérifiée ce qui
indique nécessairement une zone de non-uniformité.
La solution exacte s’écrit :
1 − e−x/ε
y(x, ε) = ax + (1 − a) . (2.14)
1 − e−1/ε
Dès que x > 0, lorsque ε → 0, on voit qu’une bonne approximation de la
solution exacte est donnée par (Fig. 2.4) :
y = ax + 1 − a + · · · .
Ceci montre qu’il fallait se placer dans le second cas et vérifier, pour le
problème réduit, la condition en x = 1. La zone de non-uniformité se trouve
donc dans un voisinage de l’origine. Comment répondre à ces questions sans
connaître la solution exacte, c’est ce que l’on va commencer à évoquer dans
les paragraphes suivants.
2.2 Méthodes d’approximations pour les problèmes de perturbation singulière 17
17
1
y0
1-a
solution
exacte
y
0
0 1
x
y0 = ax + A,
y0 (x) = ax + 1 − a.
d2 Yα dYα
ε1−2α 2
+ ε−α = a.
dXα dXα
d2 Y0 dY0
+ = 0.
dX 2 dX
La solution générale est immédiate, on a :
Y0 (X) = A + Be−X ,
voisinage de l’origine, Y0 (X) ne peut être valable dès que X n’est plus borné,
en particulier au voisinage de x = 1.
Quatrième étape. Pour trouver la condition manquante, une première idée
est d’affirmer que l’on doit trouver une zone de recouvrement où le compor-
tement de y0 pour x petit s’identifie à celui de Y0 (X) pour X grand. C’est en
somme la recherche d’une zone intermédiaire que l’on peut formaliser avec la
variable Xβ = x/εβ . On obtient, pour 0 < β < 1 :
y0 (x) = 1 − a + aεβ Xβ = 1 − a + · · · ,
1−β
Y0 (X) = A 1 − e−Xβ /ε = A + ··· .
ce qui redonne la même valeur de A parce que les limites existent. On verra
plus loin que si un tel principe est plus facile à mettre en œuvre que le raccord
en variable intermédiaire, tel qu’il est formulé, il est beaucoup trop brutal.
Cinquième étape. On est alors tenté de construire une approximation uni-
formément valable (AUV) en ajoutant les deux approximations obtenues dans
leur zone respective et en retranchant la partie commune. On a :
yapp = y0 (x) + Y0 (X) − (1 − a),
d’où :
yapp = ax + (1 − a) 1 − e−X . (2.15)
La figure 2.5 montre la comparaison de la solution exacte et de la solution
composite (2.15) pour a = 0, 2 et ε = 0, 25. On constate que l’approximation
est très bonne même si la valeur de ε n’est pas très petite ; pour des valeurs
plus petites de ε, l’approximation est meilleure. En fait, la petitesse de ε est
toujours très difficile à apprécier.
Les réflexions précédentes constituent les idées de base qui vont per-
mettre de construire la méthode des développements asymptotiques raccordés
(MDAR).
1
y
yapp
a = 0,2
ε = 0,25
0
0 x 1
Fig. 2.5. Étude du problème (2.12a, 2.12b). La solution composite yapp est donnée
par (2.15) ; la solution exacte y est donnée par (2.14)
d2 y0
Ce cas est très particulier car étant nul, si l’on annule le second membre
dx2
et que l’on vérifie exactement les conditions aux limites, on doit nécessairement
trouver la solution exacte. Ce fait est dû à la simplicité de l’équation. En effet,
on obtient :
∗ −X ∗ ∗ 1
Y0 (X) = A + Be avec Y0 (0) = a − 1 et Y0 = 0,
ε
ce qui donne :
e−1/ε − e−X
Y0∗ (X) = (1 − a)
1 − e−1/ε
qui, ajouté à y0 (x), redonne bien la solution exacte. En fait, l’approche utilisée
ci-dessus n’est pas traditionnelle dans la mesure où Y0∗ dépend de X mais
aussi de ε. Dans la formalisation asymptotique qui sera développée dans les
chapitres suivants, on distinguera clairement les fonctions indépendantes de
ε des fonctions qui en dépendent. Le fait d’accepter cette dépendance en ε
est nouveau et conduit, comme on le verra à la mise en place d’une nouvelle
approche appelée méthode des approximations successives complémentaires
(MASC).
La méthode plus ancienne exige une indépendance de Y0∗ par rapport à ε.
Ceci peut être écrit en négligeant un terme effectivement très petit. On a :
En fait, on démontrera plus loin que, si l’on exige cette indépendance des
fonctions par rapport à ε, la MASC est équivalente à la MDAR. Comme la
MDAR est relativement plus facile à mettre en œuvre, cette méthode, sous son
ancienne forme, ne s’est pas développée. Il faut toutefois noter que le principe
du raccord asymptotique est une hypothèse équivalente à la forme supposée
d’une AUV.
L’idée de la méthode, proposée par Mahony [56], repose comme dans le cas
précédent sur la recherche d’une AUV. On sait, par exemple dans le cas du
modèle de Friedrichs, que cette approximation ne peut être décrite par la seule
variable x et qu’une variable X supplémentaire est nécessaire. À la différence
du cas précédent, on ne suppose pas connue la structure de l’approximation.
On pose donc :
x
y(x, ε) ≡ Y (x, X, ε) avec X = , (2.16)
ε
où les deux variables x et X sont considérées comme indépendantes. L’équa-
tion initiale devient une équation aux dérivées partielles :
∂2Y ∂Y ∂2Y ∂Y 2
2∂ Y
+ + ε 2 + + ε = εa.
∂X 2 ∂X ∂x∂X ∂x ∂x2
La fonction Y étant définie sur le rectangle 0 ≤ x ≤ 1, 0 ≤ X ≤ 1ε , les condi-
tions aux limites dont on dispose sont évidemment insuffisantes pour détermi-
ner complètement la solution. Toutefois, le but recherché n’est pas de trouver
la solution, mais une approximation de la solution. Pour cela, on recherche un
développement du type :
A(0) + B(0) = 0,
A(1) = 1.
A(x) = ax + 1 − a,
B(x) = a − 1.
qui n’est autre que l’approximation donnée par la MDAR ou par la MASC.
Une autre méthode a des racines plus anciennes mais des applications plus
limitées, c’est la méthode de Poincaré-Lighthill. Cette méthode a vu le jour
en 1892 grâce à Poincaré. Néanmoins, le premier mémoire important est
dû à Lighthill en 1949. En 1953 et en 1956, Kuo publia deux articles où la
méthode était appliquée à des écoulements de fluides visqueux. C’est pourquoi
Tsien, dans un article de synthèse, publié en 1956, l’appela méthode PLK.
Des auteurs anglo-saxons préfèrent l’appeler méthode de Lighthill ou aussi
méthode des coordonnées forcées (Strained coordinates method). En hommage
à un grand mathématicien et à un grand mécanicien des fluides, on l’appelle
ici, méthode PL.
24 2 Introduction aux problèmes de perturbation singulière
2
+1
ε
2x + εy= 0
Solution exacte
1
0
0 1
x
Fig. 2.6. Étude du problème (2.17) ; la solution exacte y est donnée par (2.11)
dy
Lε y = (x + εy) + y = 0 avec y|x=1 = 1 (2.17)
dx
dont on recherche la solution sur l’intervalle 0 ≤ x ≤ 1.
La figure 2.6 montre la structure de la solution exacte. Celle-ci est singulière
sur la droite 2x = −εy. La recherche d’approximations pour ε petit revient à
transférer cette singularité en x = 0. Au lieu d’améliorer cette situation, les
approximations d’ordre supérieur ne font que l’aggraver. L’idée centrale de la
méthode est d’affirmer que les approximations données par le développement
direct doivent avoir la bonne forme, mais pas au bon endroit. On développe
alors y et x par rapport à ε et par rapport à un nouveau paramètre s qui
doit remplacer x. On force, en quelque sorte, le paramètre x, mais on le force
légèrement de sorte que l’on écrit :
x1 (s) 1
+ 2 = B(s),
s 2s
où B(s) est une fonction bornée de s. Ainsi, la solution au second ordre s’écrit :
A B(s)
y1 (s) = − .
s s
C’est l’une des caractéristiques de la méthode que la fonction x1 (s) ne soit pas
complètement déterminée. En particulier, on peut prendre pour B n’importe
quelle fonction régulière de s. Néanmoins, pour des raisons évidentes, il est
utile d’imposer que x1 (s) s’annule en x = 1. Par ailleurs, la simplicité étant
bonne conseillère, on prend B constant. D’où, le résultat :
1
y(x, ε) = + ··· ,
s
ε 1
x(s, ε) = s + s− + ··· .
2 s
Dans ce problème modèle, il apparaît que s peut être éliminé pour donner la
solution exacte.
Remarque 1. La méthode PL ne s’applique pas au modèle de Friedrichs alors que
la MDAR s’applique.
certaine liberté sur les constantes d’intégration pour éliminer les singularités
ultérieures ou pour accélérer la convergence du développement asymptotique.
Le contenu de la méthode du « groupe de renormalisation » est certainement
fondamental, mais sa mise en œuvre est assez délicate pour que nous ne la
développions pas dans la suite.
On se contente ici, à titre d’exemple, du problème séculaire le plus simple :
dy
Lε y = + εy = 0. (2.19)
dt
La solution directe contient une singularité au second ordre dès que t est
grand. On a, à cet ordre, le développement asymptotique qualifié de « naïf » :
y(t, ε) = A0 [1 − ε(t − t0 )] + · · · ,
où A0 et t0 sont deux constantes d’intégration définies par la condition initiale
non précisée. Naturellement, ce développement n’est pas uniformément valable
pour t grand. Compte tenu de l’ordre où l’on s’arrête, on pose :
A0 = [1 + εa1 (t0 , µ)] A(µ). (2.20)
Dans cette expression, µ est un temps arbitraire, A est la partie renormalisée
de A0 et a1 est une fonction inconnue. Toujours à l’ordre considéré, on obtient :
y = A(µ) [1 + εa1 (t0 , µ) − ε(t − µ) − ε(µ − t0 )] + · · · .
En posant :
a1 = µ − t0 ,
on élimine la partie divergente due à t0 pour obtenir :
y = A(µ) [1 − ε(t − µ)] + · · · .
Cette forme est identique à la forme « naïve » mais µ est arbitraire. Le critère
de renormalisation est donné par :
∂y
= 0,
∂µ
quel que soit t. On obtient ainsi l’équation différentielle pour A :
dA
+ εA = 0.
dµ
On obtient la solution :
y = A1 e−εµ [1 − ε(t − µ)] + · · · ,
où A1 est une constante.
Posant µ = t, on obtient une AUV à l’ordre indiqué :
y(t, ε) = A1 e−εt + · · · .
Cette approximation n’est autre que la solution exacte, mais le modèle est
très simple.
Problèmes 27
2.3 Conclusion
Les problèmes de perturbations singulières se rencontrent très souvent en
Physique et de nombreuses méthodes ont été imaginées pour les traiter. Une
idée commune à toutes les méthodes est naturellement de corriger ou d’évi-
ter le caractère non uniformément valable d’une première approximation. La
méthode des développements asymptotiques raccordés suit aussi cette logique.
Elle consiste à rechercher d’abord des approximations dans différentes régions
significatives où est définie la solution et ensuite à les raccorder pour rendre
précisément la solution composite uniformément valable.
Les chapitres suivants sont consacrés à la mise en place et à l’application
de la méthode des approximation successives complémentaires. On verra que,
sous sa forme régulière, cette méthode conduit aux mêmes résultats que la
méthode des développemnts asymptotiques raccordés mais sans faire appel à
la délicate notion de principe de raccordement. On verra aussi que, sous sa
forme non régulière, cette méthode offre des avantages marqués.
Problèmes
2.1. On considère l’équation :
x2 + εx − 1 = 0.
On cherche les solutions lorsque ε est un petit paramètre.
1. Donner les solutions exactes et les développer en série de Taylor au voisinage
de ε = 0 jusqu’à l’ordre ε2 .
2. On envisage une méthode itérative en réarrageant l’équation sous la forme :
√
x = ± 1 − εx.
Le processus itératif s’écrit :
xn = ± 1 − εxn−1 .
La valeur de départ x0 est solution de l’équation réduite obtenue en faisant
ε = 0. En utilisant des développements limités, donner les développements
des solutions obtenues en améliorant l’approximation à chaque étape.
3. On pose a priori que la solution est de la forme :
x = x0 + εx1 + ε2 x2 + · · · .
Donner les valeurs de x0 , x1 , x2 .
4. On pose :
x = x0 + δ1 (ε)x1 + δ2 (ε)x2 + · · · ,
où la suite δ1 , δ2 est telle que δ2 /δ1 → 0 et δ1 → 0 quand ε → 0. Essayer de
choisir δ1 , δ2 aussi simplement que possible.
28 2 Introduction aux problèmes de perturbation singulière
εx2 + x − 1 = 0
d2 f
+ λ2 f (x) = 0; λ > 0; ε ≤ x ≤ π,
dx2
avec les conditions aux limites :
f (ε) = 0; f (π) = 0.
f = ϕ0 + εϕ1 + · · · ; λ = λ0 + ελ1 + · · · .
2.4. Cet exercice a été proposé par Van Dyke [94]. On considère un écoulement
bidimensionnel, incompressible, non visqueux. L’équation de continuité :
∂u ∂v
+ =0
∂x ∂y
conduit à introduire la fonction de courant ψ telle que :
∂ψ ∂ψ
u= ; v=− ,
∂y ∂x
et qui permet de satisfaire l’équation de continuité automatiquement. En
outre, si l’écoulement est stationnaire et non visqueux, le rotationnel de la
vitesse est constant sur une ligne de courant. Ainsi, si l’écoulement à l’infini
amont est irrotationnel, il est irrotationnel partout. Dans ces conditions, la
fonction de courant satisfait l’équation :
ψ = 0.
Les lignes de courant sont définies par ψ = Cte puisque les variations de ψ
sont telles que :
dψ = udy − vdx.
Un écoulement non visqueux, uniforme attaquant un cylindre circulaire
satisfait les hypothèses énoncées plus haut. En coordonnées polaires, la fonc-
tion de courant est donnée par :
a2
ψ = U∞ (r − ) sin θ,
r
où r = 0 est le centre du cercle et a est son rayon. La vitesse à l’infini amont
a pour module U∞ et sa direction est θ = 0.
On souhaite étudier l’écoulement autour d’un cercle légèrement déformé,
d’équation :
r = a(1 − ε sin2 θ).
Ce problème se traite à l’aide d’un développement régulier qui est simplement :
ψ(r, θ, ε) = ψ0 (r, θ) + εψ1 (r, θ) + · · ·.
U⬁ θ
∂u∗ ∂v ∗
Le rotationnel de vitesse ω ∗ = − + est constant le long d’une ligne de
∂y ∗ ∂x∗
courant donc ω est fonction de la fonction de courant ψ ∗ seulement. L’équa-
∗
ψ = ψ0 + εψ1 + · · · .
Donner les équations pour ψ0 et ψ1 ainsi que leurs conditions aux limites.
Problèmes 31
∂2f 1 ∂f 1 ∂2f
f = + + .
∂r2 r ∂r r2 ∂θ2
Commenter le résultat notamment quand r → ∞.