Méthode SIMP d'optimisation de la topologie

L'optimisation de la topologie est le type d'optimisation structurelle le plus courant. Elle est utilisée dans la phase initiale de la conception pour prédire la distribution optimale de matériau dans un espace de conception initial donné d'une structure, et prend en compte les spécifications fonctionnelles ainsi que les limites de fabrication imposées.

La méthode mathématique la plus utilisée pour l'optimisation de la topologie est la méthode SIMP (Solid Isotropic Material with Penalization). Ce sont Bendsoe et Kikuchi (1988) et Rozvany et Zhou (1992) qui ont initialement proposé la méthode SIMP. La méthode SIMP prédit la distribution optimale de matériau dans un espace de conception déterminé pour des éléments donnés : cas de chargement, conditions aux limites, limites de fabrication imposées et exigences en matière de performances.

Selon Bendsoe (1989), « l'optimisation de forme dans sa définition la plus générale doit consister à déterminer pour chaque point de l'espace la présence ou non de matériau à ce point. » L'approche traditionnelle en termes d'optimisation de la topologie est la discrétisation d'un domaine en une grille d'éléments finis appelés microstructures solides isotropiques. Chaque élément est rempli par du matériau pour les régions qui en nécessitent, ou vidé du matériau pour les régions dans lesquelles vous pouvez en enlever (représentant des vides). La distribution des densités de matériau dans un domaine de conception, ρ, est discrète, et une valeur binaire est affectée à chaque élément :
  • ρ(e) = 1 où du matériau est requis (noir)
  • ρ(e) = 0 où du matériau est enlevé (blanc)

Par exemple, l'image affiche une présentation optimisée du matériau d'une poutre chargée. Les éléments volumiques pourvus des densités ρ(e) = 1 sont noirs tandis que les éléments vides avec les densités ρ(e) = 0 sont blancs.



L'introduction d'une fonction de distribution des densités relative continue évite la nature binaire du problème. Pour chaque élément, la densité relative affectée peut varier entre une valeur minimale ρmin et 1, ce qui permet d'affecter des densités intermédiaires aux éléments (considérés comme des éléments poreux) :

ρmin est la valeur minimale de densité relative autorisée pour les éléments vides supérieurs à zéro. Cette valeur de densité assure la stabilité numérique de l'analyse par éléments finis.

Comme la densité relative du matériau peut varier en continu, le module de Young du matériau au niveau de chaque élément peut également varier de manière continue. Pour chaque élément e, la relation entre le facteur de densité relative du matériau ρe et le module d'élasticité de Young du modèle de matériau isotropique affecté Ε0 est calculée d'après la loi de puissance :

Le facteur de pénalité p diminue la contribution des éléments pourvus de densités intermédiaires (éléments grisés) à la raideur totale. Le facteur de pénalité oriente la solution d'optimisation vers les éléments volumiques noirs (ρe = 1) ou vides blancs (ρe = ρmin). Les essais numériques indiquent qu'un facteur de pénalité de valeur p = 3 est approprié.

Une réduction du module d'élasticité du matériau d'un élément conduit à la réduction de la raideur de l'élément. Selon la méthode SIMP, la raideur globale est modulée en fonction de :

est la matrice de raideur des éléments, ρmin la densité relative minimale, ρe la densité relative des éléments, p le facteur de pénalité, et N le nombre d'éléments contenus dans le domaine de conception.

Exemple : pour un élément auquel une densité relative ρe = 0,5, un facteur de pénalité = 3 et une densité relative minimale ρmin = 0,001 sont affectés, la matrice de raideur globale est mise à l'échelle par le facteur (0,001 + (1 -0,001)* 0,5 ^3) = 0,12587.

Objectif : maximisation de la rigidité

Un objectif d'optimisation courant consiste à maximiser la rigidité globale d'une structure ou à en minimiser la conformité compte tenu d'une masse donnée qui sera enlevée.

La conformité est une mesure de la flexibilité ou de la souplesse globale d'une structure. Elle est la réciproque de la raideur. La conformité globale est égale à la somme des énergies de déformation ou élastiques de l'élément. La réduction de la conformité globale (C) est équivalente à la maximisation de la raideur globale. L'algorithme d'optimisation tente, par le biais d'un processus itératif, de résoudre les densités de l'élément (qui correspondent aux variables de conception d'optimisation) qui réduisent la conformité globale de la structure.



[ue] correspond au vecteur de déplacement nodal de l'élément e, [Ke] désigne la raideur de l'élément e et le vecteur {ρ} contient les densités relatives des éléments ρe.

Au cours de chaque itération d'optimisation, la limite imposée de masse cible, l'équilibre force-raideur global et les limites imposées fonctionnelles requises doivent être satisfaits :

ve correspond au volume de l'élément, tandis que Mtarget désigne la masse cible de l'optimisation.


[K{ρ}] correspond à la matrice de raideur globale modulée par le vecteur de densités relatives, {u} au vecteur de déplacement et {F} au vecteur de force externe.


La formule ci-dessus comprend des limites imposées de valeurs de conception à ne pas dépasser telles que les limites appliquées aux contraintes, déplacements, fréquences propres, etc.

Analyse de sensibilité

Au cours de chaque itération, l'algorithme d'optimisation effectue une analyse de sensibilité pour évaluer l'impact de la variation des densités de matériaux sur la fonction d'objectif pour maximiser la rigidité.

Mathématiquement, l'analyse de sensibilité est exprimée en tant que dérivée de la fonction d'objectif par rapport aux densités de matériaux :



Au cours d'une analyse de sensibilité, les éléments pondérés avec de faibles facteurs de densité du matériau finissent par perdre leur importance structurelle et sont éliminés lors des autres itérations.

Si vous calculez la sensibilité de chaque élément indépendamment et ne tenez pas compte de la connectivité entre les éléments, cela peut conduire à la discontinuité des matériaux et à la déconnexion des volumes de la géométrie principale. Cela est connu sous le nom « d'effet damier ». Pour réduire cet effet, un schéma de filtrage applique un rayon d'influence d'élément et établit la moyenne des sensibilités de chaque élément dans sa région d'influence.

Les itérations d'optimisation continuent jusqu'à ce que les variations de la fonction d'objectif convergent et que les itérations atteignent leurs critères de convergence.