Parallel Computing mit CUDA Dieser Vortrag zu "Parallel Computing mit CUDA" hat für unser Oberseminar ein etwas ungewöhnliches Format: Es geht um Hard- und Software, um Programmierung und - nun, auch um ein bisschen Mathematik. Zunächst lernen wir gute Gründe für paralleles Rechnen kennen: Von Moore's Law über Teraflop/s zu GPUs. Exemplarisch betrachten wir zwar auch ein paar parallele Algorithmen, das Hauptaugenmerk des Vortrags liegt aber auf CUDA, einem Framework von Nvidia, mit dem sich auf Grafikkarten parallel rechnen lässt, in diesem Fall konkret über eine Erweiterung der Sprache C. Ein paar Beispielcodes runden den Vortrag ab und zeigen - hoffentlich -, dass die Hürden für das Programmieren auf Grafikkarten gar nicht so hoch sind, wie man vielleicht befürchten könnte. An den Vortrag möchte ich gern ein kleines Brainstorming zu der Frage anschließen, wo sich diese Methoden in unserer Forschung (vom Bachelor bis zur Promotion) als nützlich erweisen könnten.