Finite Elemente: die Ideen
Gerades ist einfacher zu berechnen als Krummes. Diese Binsenweisheit gilt nicht nur in den heutigen computer-orientierten Wissenschaften; sie hatte noch größere Bedeutung bei den antiken Griechen, für die das Berechnen – ohne unseren Koordinatenbegriff – eine viel mühsamere Angelegenheit war. Zu Recht gilt die Berechnung des Verhältnisses von Kreisumfang zu Durchmesser, der berüchtigten Zahl PI=3,141..., durch Archimedes von Syrakus (287 bis 212 vor Christus) als eine der Glanzleistungen der antiken Mathematik.
Archimedes führte das schwierigere Problem auf das einfachere zurück. Er wählte gewisse Punkte (sogenannte Stützpunkte) auf dem Kreisumfang und ersetzte das krumme Stück Kreisbogen zwischen je zwei benachbarten Stützpunkten durch die (gerade) Sehne, die beide verbindet. Die Summe der Sehnenlängen ist dann eine Näherung für die Länge des Kreisumfangs, und zwar eine um so bessere, je dichter die Stützpunkte auf dem Kreis liegen (Bild über dem Titel). Damit hatte Archimedes eine Diskretisierung vollzogen: Statt für die von unendlich vielen Punkten gebildete krumme Kreislinie, die er rechnerisch nicht beherrschen konnte, führte er die Berechnung stellvertretend für die endlich vielen Kreissehnen durch, welche die voneinander getrennten – diskreten – Stützpunkte verbinden.
Was hat das mit finiten Elementen zu tun? Es wäre zweifellos übertrieben, Archimedes als Urvater der Methode in Anspruch zu nehmen; aber der Grundgedanke seines Verfahrens findet sich in der Tat in den modernen Entwicklungen wieder.
Archimedes kannte seine Kurve schon und wollte von ihr nur eine spezielle Eigenschaft wissen: ihre Länge. Dagegen ist bei den Problemen, von denen in diesem Artikel die Rede sein soll, typischerweise eine Kurve das, was man sucht, und alles, was man über sie weiß, sind – abgesehen von einigen wenigen Punkten, durch die sie verlaufen soll – Beziehungen zwischen ihren Punkten und der Steigung ihrer Tangenten in diesen Punkten: Es geht um Differentialgleichungen, das heißt Beziehungen zwischen den Werten einer Funktion und ihren Ableitungen. Meistens sind mehrere Funktionen zugleich gesucht, und sie hängen nicht nur von einer, sondern von zwei -oder mehr – unabhängigen Variablen ab: gekrümmte Flächen statt Kurven.
Ein Beispiel dafür und zugleich eine – damals – spektakuläre Anwendung der Methode der finiten Elemente (finite element method, FEM) ist der Entwurf des Dachs für das Münchner Olympiastadion (Bild 1) Ende der sechziger Jahre. Typische Fragestellung ist ein Gleichgewichtsproblem: Man möchte vorab wissen, in welche Gestalt die verformbare Struktur durch ihr Eigengewicht gezogen wird, welche Kräfte auf die Tragseile wirken und ob die ganze Konstruktion dem Gewicht einer Schneedecke und dem Druck des Windes standhalten wird.
Da das Dach, verglichen mit seiner Ausdehnung, sehr dünn ist, spricht man von einer Membran und beschreibt ihre Form durch eine – noch unbekannte – Funktion zweier Variablen, die beispielsweise die Verschiebung der Struktur gegenüber einer Referenzlage angibt. Wir erläutern im folgenden die Methode am Beispiel einer Membran (ohne auf die speziellen Eigenschaften des Olympiadaches einzugehen); das Verfahren ist jedoch viel allgemeiner und erfaßt mit ein und derselben Theorie auch ein- und dreidimensionale Probleme.
Das System von Differentialgleichungen ergibt sich aus der Bedingung, daß im Gleichgewicht in jedem Punkt der Struktur die Summe der angreifenden Kräfte gleich null sein muß. Die Kräfte setzen sich aus dem Eigengewicht, äußeren Lasten und der Wirkung innerer Spannungen zusammen; letztere schließlich berechnen sich (zum Beispiel nach dem Hookeschen Elastizitätsgesetz) aus Ableitungen der Verschiebungen.
Man kann die Gleichgewichtsbedingung aber auch ganz anders ausdrücken, und zwar durch ein Variationsprinzip: Die Gleichgewichtskonfiguration ist unter allen geringfügig veränderten diejenige mit der minimalen potentiellen Energie. Wenn nämlich noch überschüssige Energie in der Struktur steckte, hätte sie sich durch irgendeine (gedämpfte) Bewegung in Wärme verwandelt.
Entsprechende Überlegungen gehen bis auf den Baseler Mathematiker und Physiker Johann Bernoulli (1667 bis 1748) zurück. Dieser hatte bereits Anfang des 18. Jahrhunderts das Prinzip der virtuellen Arbeit aufgestellt: Wenn man an einem mechanischen System im Gleichgewicht ein wenig wackelt ("virtuelle Verschiebung"), dann ist die Arbeit, die durch die dabei wirkenden Kräfte geleistet wird, gleich null. In der Ausdrucksweise der Differentialrechnung: In einem Minimum ist die Ableitung (der Energie nach den Verschiebungen) gleich null.
Dieses Prinzip läßt sich in Formeln umsetzen. Aber mit den Mitteln der exakten Analysis sind die entstehenden Gleichungen explizit (formelmäßig) nur in den seltensten Ausnahmefällen lösbar.
In ihrer Urform ist die FEM die computergerechte Ausformung eines Variationsprinzips. Aber wie löst man ein Variationsproblem auf dem Computer? Durch Variation. Wenn man auf irgendeine Weise an dem Bauwerk ein bißchen wackelt, und die virtuelle Arbeit ist null, dann ist es im Gleichgewicht. (Es müssen noch weitere Bedingungen erfüllt sein, damit dieses Gleichgewicht auch stabil ist, also einem Energieminimum entspricht, aber die sind hier nicht von Belang.) Das ist die Bedingung, die man in Gleichungen umsetzen muß. Leider gibt es unendlich viele Möglichkeiten, an einer gegebenen Funktion zu wackeln, was sich so direkt auf dem Computer nicht realisieren läßt. Ferner ist die gesuchte Fläche gekrümmt, und krumme Dinge sind schwieriger zu beschreiben als gerade. Es muß also wieder diskretisiert werden.
Patchwork
Die Grundidee der FEM ist: Man repräsentiere die krumme Fläche durch viele kleine ebene Flächen, zum Beispiel Dreiecke oder Vierecke, die Seite an Seite so aneinandergefügt sind, daß sie sich insgesamt der Form der Fläche annähern. Dann suche man für dieses Ersatzsystem eine Konfiguration, in der es ein Energieminimum annimmt. Es hat sich eingebürgert, diese kleinen Teile "finite Elemente" zu nennen. Das Attribut "finit" (wörtlich: endlich, begrenzt) meint hier endliche Ausdehnung oder Reichweite. Bei dreidimensionalen Problemen wären es zum Beispiel Tetraeder oder Hexaeder (deformierte Quader).
Formal sind diese einfachsten Elemente zu beschreiben durch stückweise lineare Funktionen (Polynome erster Ordnung) über einem Referenzgebiet, das man sich etwa auf dem Boden unter dem Dach oder in der Position der undeformierten Struktur vorstellen darf. Die Koeffizienten der Polynome sind die Unbekannten des Problems; man weiß ja noch nicht, wo die Dreiecke liegen. Die virtuellen Arbeiten und andere wesentliche Größen haben dann ebenfalls mathematische Darstellungen, etwa als Summen gewisser Integrale über die Referenzflächen.
Da dieses Patchwork durch die Verschiebungen der Element-Eckpunkte (Stützpunkte, auch Knotenpunkte genannt) bereits vollständig beschrieben wird, gibt es nur endlich viele Unbekannte im diskreten Ersatzsystem. Es gibt auch nur noch endlich viele Stellen, an denen man probeweise wackeln muß, nämlich die Knoten, und entsprechend viele Gleichungen für deren Verschiebungen. Endlich viele Gleichungen mit endlich vielen Unbekannten sind der Lösung durch den Computer zugänglich.
Durch die Ersetzung des Krummen durch Gerades und damit des Kontinuierlichen durch Diskretes wird also das Problem erst numerisch berechenbar – allerdings um den Preis, daß man einen Diskretisierungsfehler in die Berechnung einführt. Der pflanzt sich bis zu einem Fehler im Endergebnis fort, so daß man die exakte Lösung im allgemeinen nicht erreicht. Indem man die Diskretisierung verfeinert, das heißt mehr Stützpunkte einführt und entsprechend mehr Rechenaufwand treibt, kann man allerdings den Diskretisierungsfehler so klein machen, wie man will. Dabei genügt es, wenn dieser Fehler sich nicht schlimmer auswirkt als beispielsweise vereinfachende Annahmen, die bei der Herleitung des zugrunde liegenden mathematischen Modells gemacht wurden.
Allerdings gibt es – abgesehen von Sonderfällen – keine einfache Beziehung zwischen Diskretisierungs- und Ergebnisfehler. Man kann im allgemeinen nicht im voraus (a priori) sagen, wie dicht man die Stützpunkte legen muß, um eine geforderte Genauigkeit zu erreichen. Aus der errechneten Lösung selbst muß man nachträglich (a posteriori) erschließen, ob sie genau genug ist, und bei Bedarf nachbessern, etwa durch Einfügen weiterer Stützpunkte. Zum Beispiel variieren an den Stellen, wo das Olympiadach aufgehängt ist, die Kräfte viel stärker als sonst; dort muß man gewissermaßen genauer hinschauen, das heißt, mit einer verbesserten Diskretisierung eine neue Näherungslösung bestimmen, diese wieder überprüfen und so weiter. Häufig erreicht man erst durch diesen adaptiven Prozeß eine ausreichende Lösungsgenauigkeit (vergleiche "Die Berechnung reagierender Hyperschallströmungen" von Klaus Hannemann und Thomas Sonar, Spektrum der Wissenschaft, Juli 1996, Seite 72).
In der Auswahl und beim Zusammenfügen (Assemblieren) der finiten Elemente hat man beträchtliche Freiheiten. Ihre Größe und Form sind kaum beschränkt; nur extrem stumpfe Winkel beeinträchtigen die Genauigkeit. Geometrisch komplizierte ebene Gebiete oder Flächen wie etwa Karosseriebleche lassen sich problemlos und mit hoher Genauigkeit in kleine Dreiecke auflösen (triangulieren); Entsprechendes gilt für die Zerlegung räumlicher Gebilde in Tetraeder oder Hexaeder. Diese Möglichkeiten hat die FEM den meisten konkurrierenden Verfahren voraus; deswegen dominiert sie in der Strukturmechanik, wo es in der Regel um geometrisch komplizierte Formen geht.
Bei der Ausgestaltung der finiten Elemente ist darauf zu achten, daß am Ende das Verhalten des Ersatzsystems dem des echten hinreichend nahekommt. Zum Beispiel müssen sich bei der Membran die mechanischen Eigenschaften wie die Elastizität in den einzelnen Elementen wiederfinden. Beim klassischen linearen Verschiebungselement werden die Verschiebungen durch stückweise lineare, die Spannungen durch stückweise konstante Funktionen approximiert. Es ist nicht einfach, sich reale dreieckige, in ihrer Größe variable und möglicherweise unter Spannung stehende kleine Membranen vorzustellen, die Seite an Seite wie mit einem Scharnier aneinandergefügt sind. Aber solche Gebilde mathematisch zu modellieren ist nicht schwer.
Man nimmt also in Kauf, daß das approximierende System an den Kanten des Diskretisierungsnetzes Knicke hat und die gedachten Kleinmembranen beiderseits einer Kante sehr verschieden gespannt sein können, obgleich die echte Membran überall glatt ist und die lokale Spannung sich stetig ändert (sonst könnte sie durch Glattziehen eines Knicks und durch Ausgleich von Spannungsdifferenzen ihre Energie noch mindern). Ihre Krümmung macht sich nur noch an den Knicken bemerkbar.
In einigen Fällen kommt es jedoch für die Energiebilanz gerade auf diese Krümmungen an, zum Beispiel bei der Berechnung von Platten- und Schalentragwerken. Dann sind Elemente mit Knick-Übergang ungeeignet; man muß ihnen größere Freiheiten in der Form zugestehen, zum Beispiel eine durch ein Polynom zweiter oder höherer Ordnung zu beschreibende statt einer ebenen Oberfläche, und zugleich verlangen, daß sie glatt aneinander anschließen. Inzwischen gibt es ein großes Sortiment von Element-Typen für alle möglichen Probleme mit ihren spezifischen Anforderungen. Diese Flexibilität und Anpassungsfähigkeit macht die Stärke der FEM aus.
Ein alter Konkurrent: das Verfahren der finiten Differenzen
Die Vorzüge der FEM werden erst richtig deutlich im Vergleich zum Standardverfahren früherer Zeiten, der Methode der finiten Differenzen (finite difference method, FDM). Eine FDM-Approximation des Membranproblems würde nicht von einem Variationsprinzip ausgehen, sondern von der zugehörigen Differentialgleichung selbst. Man überzieht das Referenzgebiet der Membran mit Stützpunkten und fordert, daß die Differentialgleichung in diesen Stellvertreterpunkten erfüllt sein soll. Die rechnerisch nicht direkt zugänglichen Ableitungen approximiert man durch Differenzenquotienten zwischen den Werten benachbarter Stützpunkte. Dazu pflegt man die Stützpunkte in einem Rechteckgitter anzuordnen. Hier macht die FDM ihren Diskretisierungsfehler.
Wegen des Zwangs zum gleichmäßigen Gitter sind komplizierte, krumm berandete Strukturen nur schwer zu diskretisieren. Außerdem kann ein Differenzenansatz nur funktionieren, wenn sich zwischen den Stützpunkten – da, wo die Methode gewissermaßen nicht hinschaut – nichts allzu Dramatisches abspielt. Das Verfahren bestimmt eine äußere Kraft (im Beispiel des Olympiadachs eine Schneelast) nur stichprobenweise, als würde man die Höhe der Schneeschicht über jedem Diskretisierungspunkt messen und hoffen, daß der Schnee in der Umgebung ungefähr gleich hoch liegt. Dagegen kratzt die FEM gleichsam den gesamten Schnee in der Nähe eines Stützpunktes zusammen und belastet den Punkt mit dem Gewicht des Schneeballs. Damit gibt sie die Verhältnisse viel getreuer wieder – ein wesentlicher Vorteil bei allen äußeren Kräften, die nicht so schön gleichmäßig verteilt sind wie Schnee.
Die in der FDM auftretenden zweiten Ableitungen kommen im Variationsansatz und der daraus abgeleiteten FEM-Approximation gar nicht vor. Das ist ein typisches Phänomen: Die Ableitungen, die in einem FEM-Ansatz eine Rolle spielen, haben im allgemeinen nur halb so hohe Ordnung wie die der dazu äquivalenten Differentialgleichung. Entsprechend einfach können die Elemente selbst und ihre Übergangsbedingungen gehalten werden.
Je komplizierter das Gitter, desto komplizierter das sich ergebende Gleichungssystem. Das ist ein potentieller Nachteil der FEM gegenüber der FDM; er verschwindet jedoch, wenn das zu beschreibende Objekt so kompliziert ist, daß es ein entsprechendes Gitter zwingend erfordert. Außerdem ist das Verwalten dieser Gleichungssysteme mit dem jetzt reichlich vorhandenen Speicherplatz auf modernen Computern nicht mehr so schwer.
Die diskreten Gleichungssysteme
Hat man nun (mit finiten Differenzen oder finiten Elementen) das ursprüngliche Problem in ein System gewöhnlicher Gleichungen umgewandelt, bleibt die (nicht kleine) Aufgabe, es zu lösen. Bei den einfacheren solcher Gleichungssysteme, den linearen, steckt die wesentliche Information in einem quadratischen Zahlenschema, einer Matrix, und die Vorläufer der FEM in der Statik hießen dementsprechend Matrizenmethoden, weil der größte Teil der Arbeit in der Aufstellung und Umformung von Matrizen mit Hilfe von Tischrechnern bestand. John H. Argyris, der am Imperial College in London und ab 1959 an der Universität Stuttgart tätig war, Boerje Langefors beim schwedischen Flugzeughersteller SAAB, Karl Marguerre von der Technischen Hochschule Darmstadt, Eduard Pestel von der Universität Hannover, der auch als Gründungsmitglied des Club of Rome bekannt geworden ist, Rudolf Zurmühl von der Technischen Hochschule Darmstadt (später Technische Universität Berlin) und andere haben Anfang der fünfziger Jahre wesentliche Arbeiten hierzu geleistet.
Die Aufstellung der Systemmatrizen bei der FEM folgt einem Standardschema. Das Auswerten der Integrale und das Zusammenfassen der so gewonnenen Information zu Koeffizienten von Gleichungssystemen erfordert wegen der Freiheit bei der Gitterbildung erheblichen Aufwand, der jedesmal zu leisten ist, wenn (etwa durch adaptive Neueinführung von Stützpunkten) die Gitterstruktur sich ändert. Zuweilen verzehrt dieser Arbeitsschritt den größten Teil der Gesamt-Rechenzeit. Immerhin verfügen die aus klassischen Variationsansätzen der FEM hervorgehenden linearen Gleichungssysteme im Gegensatz zu denen den FDM über besonders wünschenswerte Eigenschaften: Sie sind im allgemeinen symmetrisch und positiv definit.
Für die Lösung von Gleichungssystemen gibt es eine gut ausgebaute Theorie numerischer Verfahren samt zugehöriger Software. Also kann man diesen Teil der Arbeit an ein Standard-Programm delegieren. Die sorgfältige Trennung zwischen Aufstellen und Lösen eines großen Gleichungssystems war bis vor kurzem gängige Praxis. Sie läßt sich heute nicht mehr generell durchhalten, seit – auch durch den Zuwachs an Rechenleistung – größere Probleme in den Mittelpunkt des Interesses gerückt sind. In der Strukturmechanik arbeitet man häufig mit einigen tausend bis mehreren zehntausend Unbekannten, in der Strömungsmechanik zuweilen mit Millionen.
Sehr große Gleichungssysteme löst man in aller Regel iterativ (und bei nichtlinearen bleibt einem gar nichts anderes übrig): Ein Rechenschritt macht aus einer ersten Näherung an die Lösung eine bessere; diesen wiederholt man, bis eine ausreichende Genauigkeit erreicht ist. Dabei ist es wenig sinnvoll, etwa sechs Dezimalstellen zu fordern, wenn der Diskretisierungsfehler sich bereits in der vierten Stelle bemerkbar macht. Also besteht die Kunst darin, die iterative Lösung des Gleichungssystems rechtzeitig abzubrechen. Stand der Technik ist deshalb eine sehr enge Verzahnung zwischen Aufstellen und Lösen der Gleichungen. Dies gilt insbesondere bei Verwendung der hoch effizienten Mehrgitterverfahren (vergleiche "Mehrgitterverfahren" von Gabriel Wittum, Spektrum der Wissenschaft, April 1990, Seite 78).
Mechanische versus mathematische Sicht
Die Methode der finiten Elemente ist im wesentlichen von Ingenieuren entwickelt worden. Die erste Anwendung, in der sie als ein die gesamte Struktur- und Kontinuumsmechanik umfassendes Näherungsverfahren auftrat, war 1956 die Berechnung gepfeilter Flugzeug-Tragflügel beim Flugzeughersteller Boeing in Seattle durch M. J. Turner, Ray W. Clough, W. C. Martin und L. J. Topp. Clough begründete in den sechziger Jahren gemeinsam mit Edward Wilson und Robert L. Taylor die einflußreiche FEM-Schule an der Universität von Kalifornien in Berkeley. Mit dem Aufkommen leistungsfähiger Computer nahm die FEM seitdem einen stürmischen Aufschwung und wuchs über ihr angestammtes Gebiet, die Strukturmechanik, weit hinaus. Von international großem Einfluß waren die Schulen von Argyris in London beziehungsweise Stuttgart und von Olgierd C. Zienkiewicz an der Universität von Wales in Swansea.
Seit Anfang der sechziger Jahre arbeitet man auch mit erweiterten Variationsprinzipien als Grundlage sogenannter gemischter Verfahren (mit Lösungsansätzen simultan für die Verschiebungen und die Spannungen). Ernst Hellinger (1883 bis 1950) in Göttingen, Eric Reissner (1913 bis 1996) am Massachusetts Institute of Technology in Cambridge und andere haben dafür die Grundlagen gelegt. Zunehmend beschäftigt man sich auch mit hochgradig nichtlinearen Modellen zum Beispiel für Stabilitätsprobleme bei großen Deformationen. Diese Entwicklung ist jetzt noch im Gange.
Als Ende der sechziger Jahre die Mathematiker das Thema aufgriffen, taten sie das von einem völlig anderen Standpunkt aus. Die Unterschiede in der Denk- und Ausdrucksweise waren so groß, daß es zuweilen heute noch beträchtliche Verständigungsprobleme gibt.
Im Mittelpunkt des Interesses stehen für den Mathematiker nicht einzelne Elemente, sondern Funktionen, die auf dem gesamten Referenzgebiet definiert sind. Man sucht eine Funktion, nämlich die Lösung des Problems, indem man sie als Summe aus möglichst einfachen Funktionen, sogenannten Basisfunktionen, darstellt (Bild 2).
Klassisches Beispiel für diese Vorgehensweise sind schwingfähige Systeme: eine Saite, die Luftsäule im Inneren einer Flöte oder auch eine Membran wie etwa ein Trommelfell. Wenn man sie anregt, produzieren sie einen Grundton und Obertöne. Die zugehörigen Schwingungen sind (in der Idealisierung) unabhängig voneinander: Man kann berechnen, wie jede von ihnen angeregt wird und durch Reibung abklingt, ohne sich um die anderen zu kümmern.
Im Prinzip gibt es unendlich viele Obertöne; aber je höher sie sind, desto unwichtiger werden sie: Sie haben immer geringeren Anteil an der Gesamtenergie, und hören kann man sie ohnehin nicht mehr. Für eine gute Approximation an das echte Schallsignal genügt also eine endliche Auswahl aus den unendlich vielen Werten für die Intensitäten aller Oberschwingungen.
Nach demselben Muster kann man auch die FEM-Approximation auffassen. An die Stelle der Oberschwingungen treten (im Membranbeispiel) Funktionen in Form kleiner Pyramiden: Sie haben in einem Stützpunkt den Wert 1, in allen anderen den Wert 0 und interpolieren linear zwischen den Stützpunkten. Diese Funktionen sind es, die im mathematischen Sprachgebrauch den Namen finite Elemente tragen. Eine mit geeigneten Vorfaktoren versehene Summe finiter Elemente ergibt genau den aus ebenen Dreiecken zusammengesetzten Membranersatz (Bild 2).
Den hohen Oberschwingungen, die man wegläßt, entsprechen Pyramiden auf verfeinerten Netzen. In beiden Fällen gibt man Genauigkeit auf und gewinnt dafür Handhabbarkeit, weil die Anzahl der Unbekannten begrenzt ist.
Interessant wird diese Umformulierung durch eine geometrische Interpretation. Und zwar stellt man sich eine komplette Funktion als Punkt in einem abstrakten Raum vor. Wenn eine Funktion eine gute Näherung an eine andere ist, liegen die entsprechenden Punkte nah beieinander. Man kann nämlich im abstrakten Raum der Funktionen einen Entfernungsbegriff definieren und sogar so etwas wie Winkel und Koordinaten. Beim Schwingungs-Beispiel würden die Koordinatenachsen den Eigenschwingungen entsprechen. Weil diese völlig unabhängig voneinander sind, stehen die Achsen in diesem abstrakten Sinne sämtlich paarweise senkrecht (orthogonal) aufeinander. Das kann man sich zwar nicht mehr vorstellen; gleichwohl läßt sich in diesem Raum Geometrie treiben.
Weil man im FE-Ansatz nur endlich viele Basisfunktionen zur Verfügung hat, bewegt man sich in einem endlich-dimensionalen Unterraum des gesamten Funktionenraums. Die Lösung des Problems ist in diesem Unterraum im allgemeinen nicht enthalten (sonst wäre das Problem exakt lösbar). Es ist, als könnte man sich nur in einer Ebene bewegen, und der Punkt, zu dem man eigentlich hinmöchte, schwebt unerreichbar darüber im Raum. Wie kommt man ihm am nächsten? Man fällt das Lot auf die Ebene. Dafür gibt es ein Äquivalent im Funktionenraum; man spricht von orthogonaler Projektion.
Häufig kann man den Abstandsbegriff im Funktionenraum so definieren, daß das Quadrat des Abstands vom Nullpunkt dasselbe ist wie die zu minimierende Energie. Dann liefert die Projektion auf den Unterraum bereits ein Minimum. Die zugehörige Form der FEM heißt Ritz-Verfahren nach dem in Zürich und Göttingen tätigen Mathematiker und Physiker Walter Ritz (1878 bis 1909).
Schon 1943 hatte der Göttinger, nach New York emigrierte Mathematiker Richard Courant (1888 bis 1972) die Idee, für das Schwingungsproblem eines Balkens das Ritz-Verfahren bereichsweise durchzuführen. Sie erlangte aber wegen unzureichender Rechenhilfsmittel damals keine praktische Bedeutung.
Wenn man zum Minimieren nur einen Teilraum zur Verfügung hat, ist das erreichbare Ergebnis schlechter, als wenn man auf dem ganzen Raum variieren könnte. Das ergibt eine qualitative Aussage über die Lösung: Das mit dem Ritz-Verfahren gefundene Energieminimum ist regelmäßig höher als das echte; die Ersatzmembran hat weniger Bewegungsmöglichkeiten als die echte, ist deswegen steifer und hängt weniger durch.
Mathematische Analyse der FEM
Man projiziert das Problem von dem unendlich-dimensionalen Funktionenraum, in dem es definiert ist, auf einen endlich-dimensionalen Unterraum, löst es dort und hat die Garantie, daß die gefundene Lösung die beste ist, die es in dem Unterraum überhaupt geben kann. So erklärt die mathematische Analyse den Erfolg der Finite-Elemente-Methode. Bis vor etwa 20 Jahren konnten die Mathematiker den Ingenieuren allerdings nur erzählen (und schlüssig begründen), was diese aus Erfahrung längst wußten: Sie hatten deren Welt nur interpretiert; erst ab dieser Zeit gelang es ihnen, sie auch zu verändern.
Eine der Leistungen des mathematischen Ansatzes besteht in einer genauen Analyse dessen, was Entfernung im Funktionenraum heißt. Es ist nämlich nicht von vornherein klar, was man unter dem Abstand zweier Funktionen verstehen soll. Wenn sie durch Kurven darstellbar sind, kann man den maximalen Abstand (in vertikaler Richtung) zwischen Punkten dieser Kurven nehmen oder die Fläche, die zwischen den Kurven liegt. Das sind zwei häufig verwendete Abstandsbegriffe. Manchmal darf man aber zwei Kurven nicht als eng benachbart ansehen, wenn nicht auch ihre Krümmungen ähnlich sind. Sonst könnte man nämlich beweisen, daß PI=2 ist (Bild 3).
Ein berühmt gewordenes Beispiel trägt den Namen von Ivo Babuska, einem tschechischen Ingenieur und Mathematiker, der nach langen Jahren an der Universität von Maryland in College Park seit 1996 am Texas Institute of Computational Mathematics (TICAM) in Austin tätig ist. Bei der FEM-Analyse einer gelenkig gelagerten, krumm berandeten Platte durch polygonale Elemente ergaben sich unerklärliche, grobe Fehler. Erst die mathematische Analyse konnte aufdecken, daß zwar die Funktionen in dem sonst üblichen Funktionenraum korrekt approximiert worden waren, aber man in diesem Fall die Randkrümmung in den Entfernungsbegriff hätte einbeziehen müssen. Diese Erkenntnis wies auch sichere Wege, wie der Defekt zu behe-ben war.
Ein weiterer Erfolg der mathematischen Analyse ist die Klärung der Frage, warum man eigentlich verschiedene Größen des Problems ungleich behandeln muß. Im Membranbeispiel variiert die Ortsvariable stückweise linear mit Knicken an den Dreiecksseiten. Die mechanische Spannung ist sogar nur konstant auf den einzelnen Dreieckchen und wechselt sprunghaft an deren Grenzen, während die Ortsvariable wenigstens noch stetig ist. Sollte man nicht besser erzwingen, daß auch die Spannung stückweise linear und stetig ist?
Entsprechende Versuche scheiterten im wesentlichen. Erst die abstrakte mathematische Stabilitätsanalyse brachte die Ursache ans Licht, die im mechanischen Bild nur unvollkommen erklärbar ist: Indem man durch die Forderung nach Stetigkeit die Werte der Spannung an den Stützpunkten miteinander verkoppelt, schafft man ein Gebilde mit vielen Gelenken ähnlich einer Nürnberger Schere. Wenn man am einen Ende ein bißchen wackelt, pflanzt sich die Bewegung bis zum anderen Ende fort, möglicherweise vergrößert, wodurch Fehler verstärkt statt, wie erforderlich, gedämpft werden. Diese Form der numerischen Instabilität heißt locking, was etwa mit Verkopplung zu übersetzen wäre. Eine abstrakte Bedingung, nach Babuska und Franco Brezzi von der Universität Pavia als BB-Bedingung benannt, beschreibt, welche gemischten Elemente und welche Element-Kombinationen zulässig sind.
Die mathematische Analyse hat die klassische FEM um zahlreiche neue Elementansätze bereichert, die man ohne Bedenken verwenden kann. Darunter sind auch solche, die vom Standpunkt des Mechanikers etwas fragwürdig wirken: Es ist nicht gerade naheliegend, den Eckpunkt eines Drei- oder Vierecks nicht in die Ecke eines anderen, sondern etwa in die Seitenmitte zu setzen. Dieser deplazierte Eckpunkt (ein sogenannter hängender Knoten) wäre ja dann zwangsweise der Bewegung der Seite unterworfen, auf der er liegt, das ergibt eine kinematische Bedingung zuviel, oder die Stetigkeitsforderung wäre an dieser Stelle verletzt. Aber es funktioniert, wenn man es richtig macht, und vereinfacht oft die Realisierung von lokalen Verfeinerungen des Rechengitters. Es ist sogar erlaubt, die Drei- oder Vierecke nicht an den Ecken, sondern nur an den Seitenmitten zu verkoppeln. Würde man ein Dach so bauen, würde es an jeder Kante durchregnen. Aber ein solcher nicht konformer Finite-Elemente-Ansatz (den auch die Ingenieure schon praktiziert hatten) kann trotzdem erfolgreich sein, wenn zum Beispiel aus bestimmtem Gründen die approximierende Struktur weicher als das exakte Modell sein soll.
Anwendungen und Zukunftsaussichten
Auch heute kann die FEM ihre Herkunft aus der Strukturmechanik nicht verleugnen: Größtes Anwendungsgebiet ist die Konstruktion technischer Bauteile und die Erforschung ihres Verhaltens (Bilder 4 und 5; siehe auch die drei folgenden Artikel). Ein großer Vorzug der Methode ist ihre Universalität: Ein und dieselbe Daten- und Programmstruktur taugt für die Behandlung so verschiedenartiger Bauteile wie Scheiben, Platten, Schalen und kompliziert geformter dreidimensionaler Körper. Dies erleichtert die Herstellung von Mehrzweck-Programmen für Standardaufgaben der Ingenieurpraxis (siehe den Beitrag von Karl Schweizerhof).
Inzwischen hat die Methode der finiten Elemente fast alle Gebiete der mathematischen Physik und Technik erobert. Deren Probleme sind typischerweise als Differentialgleichungen (oder allgemeinere Beziehungen in gewissen Funktionenräumen) formuliert. Nicht alle stammen von einem Variationsproblem ab; aber häufig gelingt es, abstrakt, ohne Bezug zur Physik, zu einer Differentialgleichung ein Variationsproblem zu konstruieren, von dem sie hätte abstammen können. Im Extremfall ist die zu minimierende Größe dann zum Beispiel der (geeignet definierte) Approximationsfehler selbst. FEM-Verfahren dieses Typs heißen Galerkin- oder noch allgemeiner Petrov-Galerkin-Verfahren. Die schwierigsten zur Zeit angreifbaren Probleme dieser Art stammen aus der Strömungsmechanik oder der Astrophysik (Kasten auf dieser Seite): Nur mit modernsten Methoden ist beispielsweise der Strahlungstransport in Galaxien berechenbar.
Das mechanische Modell, das bei der Konstruktion zulässiger Elemente so hilfreich war, steht nun zwar nicht mehr oder nur eingeschränkt zur Verfügung. Was bleibt, ist die mathematische Theorie der Approximation in Funktionenräumen, mit der man insbesondere den Fehler der Lösung in den Griff bekommt.
Die FEM ist immer noch in lebhafter Entwicklung begriffen. Man wagt sich an zunehmend komplexere mechanische Probleme wie die Simulation des Versagens von Strukturen mit einer verwickelten Folge von großen inelastischen Deformationen und von Beulvorgängen (Bild 4), Verformung ganzer Autos durch Zusammenstoß (siehe den Beitrag von Hannes Möller), plastische Umformung von Karosserieblechen und das Schmieden hochbeanspruchter Bauteile.
Anders als bei den linearen Problemen sind zum Beispiel beim Materialgesetz Verschiebung und Spannung nicht mehr proportional. Entsprechend schwieriger werden die Gleichungen, und die für lineare Gleichungssysteme üblichen Lösungsmethoden sind nicht mehr anwendbar. Man führt ein solches Problem in der Regel auf eine Folge von linearen Teilproblemen zurück und löst diese dann mit der linearen FEM. Durch diesen zusätzlichen Approximationsschritt ergeben sich neue Fehler, die kontrolliert werden müssen. Hierfür sind neue adaptive Methoden gefordert (Kasten Seite 96). Der nächste Schritt ist dann, auch noch den Modellfehler, der etwa durch die vereinfachte Beschreibung einer dreidimensionalen Struktur durch ein nur zweidimensionales Ersatzmodell entsteht, in die adaptive Methode einzubeziehen (Bild 5). Erste Schritte in diese Richtung sind bereits gemacht.
Literaturhinweise
– Finite Elemente: Theorie, schnelle Löser und Anwendungen in der Elastizitätstheorie. Von Dietrich Braess. Springer, Berlin 1992. – The Mathematical Theory of Finite Elements. Von Susanne C. Brenner. Springer, Berlin 1994. – The Finite Element Method. Von O. C. Zienkiewicz und R. T. Taylor. 4. Auflage. MacGraw-Hill, London 1989 (Band 1) und 1991 (Band 2).
Kasten: Von Rauchwölkchen zur Sternentstehung: FEM an der Front der Forschung
Ein Raucher bläst kurz hintereinander zwei Rauchringe. Der vordere (blau) weitet sich auf, der hintere (orange) schlüpft durch den vorderen, weitet sich auf, wird langsamer, ein dritter (rot) dringt ein, und das Spiel wiederholt sich mit wechselnden Rollen (oben). Da das Phänomen experimentell gut dokumentiert ist, eignet es sich als Übungsaufgabe (das sogenannte Paffpaff-Problem) für Programme, die hinterher für praktisch bedeutsamere Zwecke verwendet werden sollen. Das Programm, mit dem diese Bilder erzeugt wurden, haben Stefan Turek, Peter Schreiber und Hubertus Oswald erarbeitet. Für jeden der 200 Zeitschritte waren knapp eine Million Unbekannte neu zu berechnen. Eine Workstation benötigte ungefähr 20 Stunden Rechenzeit für einen Vorgang, der in der Wirklichkeit nur wenige Sekunden dauert. Ein Kurzfilm ist im WWW unter http://gaia.iwr.uni-heidelberg.de/~oswald/grafik.html abrufbar.
Eine unten eingespannte, geschlitzte Scheibe aus einem elastoplastisch verformbaren Material wird an der linken Hälfte der Oberseite auseinandergezogen (links). Die Verschiebungen sind zur Verdeutlichung 30fach überhöht dargestellt. Wesentliches Problem ist hier die extreme Materialnichtlinearität durch plastisches Fließen. Die FEM-Diskretisierung hat hängende Knoten: Häufig liegt eine Ecke eines Elements mitten auf der Seite eines anderen. Das verlangt besondere Vorsichtsmaßnahmen, vereinfacht aber sehr die adaptive Verfeinerung. Überall, wo der lokale Fehler noch zu groß ist, zerlegt man das betroffene Element, in diesem Falle ein Quadrat in vier Teilquadrate. Wollte man hängende Knoten vermeiden, müßte man dessen (nicht unbedingt betroffene) Nachbarn gleich mitzerlegen. Die Rechnungen hat Franz-Theo Suttmeier durchgeführt.
Das rechte Bild zeigt eine im Wortsinne fernliegende Anwendung der FEM. Um aus den inzwischen sehr präzisen Messungen der Energieabstrahlung weit entfernter Sterne auf die dort ablaufenden physikalischen Prozesse zurückzuschließen (und damit letztendlich die Entstehung eines Sterns wie etwa der Sonne zu verstehen), muß man die Strahlungstransportgleichung lösen, eine hochkomplexe Integrodifferentialgleichung, die wegen ihrer sechs (statt sonst allenfalls drei) unabhängigen Variablen enorme Rechenleistung und Speicherkapazität erfordert. Mit einer speziellen adaptiven FEM gelang es Guido Kanschat vor kurzen erstmals, die Gleichung für eine realistische Konstellation, ein Drei-Sterne-System, mit der erforderlichen Genauigkeit zu lösen.
Alle hier gezeigten Bilder sind am Institut für Angewandte Mathematik der Universität Heidelberg entstanden.
Aus: Spektrum der Wissenschaft 3 / 1997, Seite 90
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben