Laufzeit (Informatik) - LinkFang.de





Laufzeit (Informatik)


Der Begriff Laufzeit (englisch runtime) beschreibt in der Informatik einerseits die Zeitdauer, die ein Programm, ausgeführt durch einen Rechner, zur Bewältigung einer Aufgabe benötigt. Anderseits wird mit Laufzeit auch allgemein die Programmlebensphase der Ausführung, die nach der Kompilierung folgt, bezeichnet. Zu dieser zweiten Bedeutung bildet die Übersetzungszeit das Gegenstück.

Laufzeit als Dauer der Ausführung

Die Länge der Zeitspanne, die zur Lösung einer Aufgabe benötigt wird, lässt sich häufig nur durch Ausprobieren bestimmen. Jeder Befehl eines Programms in einer höheren Programmiersprache wird vom Compiler in eine vorher nicht zwingend bekannte Anzahl von Maschinenbefehlen übersetzt. Die Ausführung eines Befehls kann, je nach Hardware, weitere Verzögerungen ergeben – wenn z. B. Daten zwischen Hauptspeicher und Cache ausgetauscht oder von der Festplatte in den Speicher eingelagert werden müssen (Paging). Weitere Abhängigkeiten ergeben sich von Betriebssystem, CPU-Taktrate, Größe des Hauptspeichers, Übertragungsrate des internen Bus-Systems usw. Auch möchte man etwa abschätzen, wie sich das untersuchte Programm unter Variation der Größen der Eingangsvariablen, der Instanzen, verhält.

In der Informatik gibt man daher Laufzeiten von Algorithmen nicht in Zeiteinheiten an. Stattdessen sucht man eine obere Schranke an die Anzahl der einfachen Operationen, auch Elementarschritte, in der Größe der Instanz und verwendet die Landau-Notation.

Einige Beispiele anhand eines Programms, das n Zahlen sortiert:

  • [math]\mathcal{O} (n)[/math] beschreibt ein lineares Wachstum. Solch ein Programm macht pro eingegebener Zahl nur eine konstante Anzahl von Rechenschritten. Werden beispielsweise doppelt so viele Zahlen eingegeben, so verdoppelt sich auch die Ausführungsdauer.
  • [math]\mathcal{O} (n^2)[/math] bedeutet quadratisches Wachstum. Das Sortierprogramm macht pro eingegebener Zahl eine konstante Anzahl von Durchläufen durch die ganze Liste. Bei doppelter Größe der Eingabedaten kommt es hier also etwa zu einer Vervierfachung der Ausführungsdauer.
  • [math]\mathcal{O} (2^{n})[/math] würde schließlich exponentielles Wachstum bedeuten. Im Beispiel des Sortierprogramms würde sich mit jeder weiteren Zahl die Laufzeit (ungefähr) verdoppeln, was bereits bei verhältnismäßig kleinen Eingabegrößen zu extrem langen Laufzeiten führt. Solch einen Zeitverbrauch erreicht ein Sortierprogramm beispielsweise, indem es alle möglichen Reihenfolgen der Zahlen daraufhin testet, ob sie sortiert sind.

Verfahren mit exponentieller Laufzeit versucht man daher nach Möglichkeit zu vermeiden – ob das überhaupt geht, ist eine der Fragen, die man sich in der Theoretischen Informatik stellt (vgl. dazu Komplexitätstheorie und NP-vollständig). Angestrebt werden Verfahren mit polynomieller, also salopp gesagt „n hoch irgendwas“, oder noch besser logarithmischer Laufzeit [math]\mathcal{O} (\log n)[/math]. Heute gebräuchliche Sortierverfahren erreichen meist eine worst case Laufzeit von [math]\mathcal{O} (n \log n)[/math] oder [math]\mathcal{O}( n^2)[/math]. Man beachte dabei, dass ein Programm im Grunde dreigeteilt ist – Eingabe, Verarbeitung, Ausgabe – und dass sich nur der mittlere Teil in dieser Hinsicht optimieren lässt (Ein- und Ausgabe haben in der Regel lineares Zeitverhalten – es muss ja jeder einzelne Wert eingelesen/ausgegeben werden).

Laufzeit als Lebensphase eines Programms

Laufzeit (runtime) bezeichnet auch die Phase der Ausführung eines Programms in einem spezifischen Laufzeitkontext: variierende Hardwareeigenschaften, Eingabeparameter und Benutzer-Interaktion. Das Programm befindet sich zur Laufzeit typischerweise in einer Verwendung in einem Kontext der in dieser exakten Konstellation durch den Entwickler nicht (oder nur näherungsweise über Dynamische Code-Analyse) vorhersehbar war.

Da nun beim Ausführen in diesen variierenden Kontexten bestimmte Programmeigenheiten – insbesondere Fehler – erstmals auftreten können, erhält der Entwickler häufig nur auf diesem Wege die Hinweise für notwendige Änderungen am Programm. Im weiteren Sinn kann somit auch die reguläre Ausführung eines Programms als Teil des Entwicklungsprozesses angesehen werden.

Weitere Phasen sind z. B. die Übersetzungszeit (engl. compile time) als Phase bis zum Zeitpunkt der automatischen Übersetzung des Quelltextes und die link time für den Zeitpunkt, zu dem das Programm aus seinen binären Programmkomponenten zu einer ausführbaren Einheit zusammengeführt wird. Manchmal wird die Phase des eigentlichen Programmierens und Modellierens als precompile time bezeichnet.

Siehe auch


Kategorien: Programmierung

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Laufzeit (Informatik) (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.