Rechenzeit

Rechenzeit

Der Begriff Laufzeit (engl. runtime) beschreibt in der Informatik im Wesentlichen die Zeitspanne, während der ein Programm von einem Rechner ausgeführt wird, und zwar sowohl im Bezug auf die Zeitdauer, die zur Bewältigung einer Aufgabe benötigt wird, als auch zur Beschreibung dass ein Programm zu einem bestimmten Zeitpunkt gerade ausgeführt wird.

Laufzeit als Dauer der Ausführung

Die Länge der Zeitspanne, die zur Lösung einer Aufgabe benötigt wird, lässt sich häufig nur durch Ausprobieren bestimmen. Jeder Befehl eines Programms in einer höheren Programmiersprache wird vom Compiler in eine vorher nicht zwingend bekannte Anzahl von Maschinenbefehlen übersetzt. Die Ausführung eines Befehls kann, je nach Hardware, weitere Verzögerungen ergeben – wenn z. B. Daten zwischen Hauptspeicher und Cache ausgetauscht oder von der Festplatte in den Speicher eingelagert werden müssen (Paging). Weitere Abhängigkeiten ergeben sich von Betriebssystem, CPU-Taktrate, Größe des Hauptspeichers, Übertragungsrate des internen Bus-Systems usw.

In der Informatik versucht man daher nicht konkret auszurechnen, wie viele Sekunden ein Programm auf einem bestimmten Computersystem ausgeführt wird. Stattdessen liefert die „\mathcal{O}-Notation“, auch Landau-Notation genannt, immerhin eine ungefähre Abschätzung, wie viel Zeit zwischen Programmstart und -ende vergehen würde (vgl. hierzu Asymptotische Laufzeit). Diese Größe beachtet keine Einflussgrößen außer der Größe der Eingabedaten und beschreibt ein ungefähres Wachstumsverhalten der Laufzeit für größere Eingaben.

Einige Beispiele anhand eines Programms, das n Zahlen sortiert:

  • \mathcal{O} (n)“ beschreibt ein lineares Wachstum. Solch ein Programm macht pro eingegebener Zahl nur eine konstante Anzahl von Rechenschritten. Werden beispielsweise doppelt so viele Zahlen eingegeben verdoppelt sich auch die Ausführungsdauer.
  • \mathcal{O} (n²)“ bedeutet quadratisches Wachstum. Das Sortierprogramm macht pro eingegebener Zahl eine konstante Anzahl von Durchläufen durch die ganze Liste. Bei doppelter Größe der Eingabedaten kommt es hier also etwa zu einer Vervierfachung der Ausführungsdauer.
  • \mathcal{O} (2n)“ würde schließlich exponentielles Wachstum bedeuten. Im Beispiel des Sortierprogramms würde sich mit jeder weiteren Zahl die Laufzeit (ungefähr) verdoppeln, was bereits bei verhältnismäßig kleinen Eingabegrößen zu extrem langen Laufzeiten führt. Solch einen Zeitverbrauch erreicht ein Sortierprogramm beispielsweise, indem es alle möglichen Reihenfolgen der Zahlen daraufhin testet, ob sie sortiert sind.

Verfahren mit exponentieller Laufzeit versucht man daher nach Möglichkeit zu vermeiden – ob das überhaupt geht, ist eine der Fragen, die man sich in der Theoretischen Informatik stellt (vgl. dazu Komplexitätstheorie, „NP-vollständige“ Probleme (NP-vollständig)). Angestrebt werden Verfahren mit polynomieller, also salopp gesagt „n hoch irgendwas“, oder noch besser logarithmischer Laufzeit \mathcal{O}(log n). Heute gebräuchliche Sortierverfahren erreichen meist eine worst case Laufzeit von \mathcal{O}(n·log n) oder \mathcal{O}(n2). Man beachte dabei, dass ein Programm im Grunde dreigeteilt ist – Eingabe, Verarbeitung, Ausgabe – und dass sich nur der mittlere Teil in dieser Hinsicht optimieren lässt (Ein- und Ausgabe haben in der Regel lineares Zeitverhalten − es muss ja jeder einzelne Wert eingelesen/ausgegeben werden).

Laufzeit als Teil des Entwicklungsprozesses

Laufzeit (runtime) bezeichnet die Phase der Ausführung eines Programms, also seine tägliche Verwendung durch den Benutzer, meist ohne Zugriffsmöglichkeiten für Entwickler. Insofern im Zuge der Ausführung bestimmte Eigenheiten – besonders Fehler – zu Rückmeldungen an die Entwickler führen können und damit Impulse zu Änderungen geben, können Erprobung und Verwendung eines Programms als Teil des Entwicklungsprozesses angesehen werden.

Weitere Phasen sind z. B. die Übersetzungszeit (compiletime) den Zeitpunkt der automatischen Übersetzung des Quelltextes oder die linktime den Zeitpunkt des Zusammenführens der Programmkomponenten zu einer ausführbaren Einheit. Das eigentliche Programmieren und Modellieren wird mitunter als precompiletime bezeichnet.

Siehe auch


Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Rechenzeit — Rechenzeit,   die tatsächliche oder kalkulierte Zeit, die ein Computersystem zur Erledigung einer bestimmten Aufgabe benötigt. Häufig ist die spezielle Zeitspanne gemeint, die der Prozessor braucht. Die Rechenzeit des Prozessors wird bei… …   Universal-Lexikon

  • Probabilistischer Algorithmus — Ein randomisierter Algorithmus (auch stochastischer oder probabilistischer Algorithmus) verwendet im Gegensatz zu einem deterministischen Algorithmus Zufallsbits um seinen Ablauf zu steuern. Es wird nicht verlangt, dass ein randomisierter… …   Deutsch Wikipedia

  • Randomisierter Algorithmus — Ein randomisierter Algorithmus (auch stochastischer oder probabilistischer Algorithmus) verwendet – im Gegensatz zu einem deterministischen Algorithmus – Zufallsbits, um seinen Ablauf zu steuern. Es wird nicht verlangt, dass ein randomisierter… …   Deutsch Wikipedia

  • Stochastischer Algorithmus — Ein randomisierter Algorithmus (auch stochastischer oder probabilistischer Algorithmus) verwendet im Gegensatz zu einem deterministischen Algorithmus Zufallsbits um seinen Ablauf zu steuern. Es wird nicht verlangt, dass ein randomisierter… …   Deutsch Wikipedia

  • Kooperative Multitasking — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

  • Kooperatives Multitasking — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

  • Mehrprogrammbetrieb — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

  • Mehrprozessbetrieb — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

  • Multiprogrammierung — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

  • Multitasking — Der Begriff Multitasking [ˌmʌltiˈtɑːskɪŋ] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) nebenläufig auszuführen. Dabei werden die verschiedenen Prozesse in so kurzen Abständen immer… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”