Willkommen an der Technischen Hochschule Nürnberg
Technische Hochschule Nürnberg Georg Simon Ohm
Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften

Mathematisch-Physikalisches Kolloquium

 

Sommersemester 2017

 

Neue Verfahren der Raster-Elektronenmikroskopie zur 3D Bildgebung an biologischen Proben

Dienstag, 13. Juni 2017, 17:30 Uhr, KA.215

Dr. Jörg Lindenau, Carl Zeiss Microscopy GmbH, Jena

 

(Titel folgt)

Dienstag, 23. Mai 2017, 17:30 Uhr, KA.215

Prof. Dr. Thomas Lauterbach, TH Nürnberg, Fakultät AMP

 

(Titel folgt)

Dienstag, 16. Mai 2017, 17:30 Uhr, KA.215

Dipl.-Math. Tobias Schön, Fraunhofer-Institut für Integrierte Schaltungen IIS, Fürth

 

Automatische Tests für autonome Fahrzeuge? Hardware in-the-Loop Tests in der Automobilindustrie

Dienstag, 25. April 2017, 17:30 Uhr, KA.215

Dipl.-Ing. Florian Spiteller, iSyst Intelligente Systeme GmbH

Moderne Serienfahrzeuge bieten eine Fülle an neuen Funktionen für das (teil-)autonome Fahren. Die Komplexität und der Aufwand für die Absicherung solch sicherheitsrelevanter Systeme ist dadurch nochmals stark gestiegen.

Im Rahmen des Vortrages wird der entwicklungsbegleitende Test eines Automobil-Steuergerätes erläutert. Zum Einsatz kommt dabei die Hardware in-the-Loop Methode die es erlaubt, das reale Steuergerät in einer simulierten Umgebung zu testen. Neben den Grundlagen werden auch die aktuellen Herausforderungen beschrieben die dazu führen, dass in aktuellen Projekten der Testaufwand den Entwicklungsaufwand teilweise schon übersteigt. Neben einem Überblick über die verschiedenen Testebenen wird auf die Vorteile die sich durch die komplette Automatisierung des Testablaufes ergeben, eingegangen. Der Vortrag schließt mit einem Ausblick auf zukünftige Entwicklungen und Trends.

 

Einfluss von Biokraftstoffen auf die Rußbildung bei der Benzindirekteinspritzung

Dienstag, 11. April 2017, 17:30 Uhr, KA.215

Dr.-Ing. Lars Zigan, Lehrstuhl für Technische Thermodynamik, FAU Erlangen-Nürnberg

Die Nutzung von Biokraftstoffen in Kombination mit der Benzindirekteinspritzung (BDE) kann einen essentiellen Beitrag für die Reduktion der globalen CO2-Emissionen leisten. Jedoch kann bei BDE-Motoren ein erhöhter Feinstaubaustoß festgestellt werden. Der Grund dafür liegt in der kürzeren verfügbaren Zeit für die Gemischbildung. Als Folge gewinnen die physikalischen Kraftstoffeigenschaften bei Zumischung von Biokomponenten (wie z.B. der Siedebereich oder die hohe Verdampfungsenthalpie von Ethanol und Butanol) stärkeren Einfluss auf die Verdampfung und Vermischung. Dies führt zu einer komplexen Interaktion der Teilprozesse Einspritzung, Gemischbildung und Verbrennung, was Voraussagen zur Rußbildung erschwert.

Um diese motorische Wirkkette ganzheitlich zu verstehen, sind Grundlagenuntersuchungen notwendig. In dieser Studie wird die Rußbildung für Ethanol- und Butanol-Benzingemische mittels optischer Messtechniken an einem optisch-zugänglichen Motor mit Direkteinspritzung für eine Vielzahl von Betriebspunkten untersucht. Es kommen u.a. die Messtechniken der planaren laserinduzierten Fluoreszenz (LIF), High-Speed Visualisierung der Verbrennung und laserinduzierte Inkandeszenz (LII) zum Einsatz. Die experimentellen Daten werden durch CFD-Simulationen der Einspritzung und Gemischbildung sowie Verbrennung untermauert. Die Ergebnisse zeigen, dass für einzelne Betriebspunkte (z.B. beim Kaltstart) Biokraftstoffgemische mit geringem Ethanol- oder Butanolanteil sogar höhere Rußemissionen zeigen als der reine Ottokraftstoff. Für hohe Biokraftstoffanteile kann meist eine verminderte Rußbildung festgestellt werden.

 

A Simple and Efficient Dichotomic Search Algorithm for Multi-Objective (Mixed-)Integer Linear Programmes

Dienstag, 21. März 2017, 17:30 Uhr, KA.215

Prof. Anthony Przybylski, Département informatique, Université de Nantes, Frankreich

In this talk, we present a new algorithm to determine all nondominated extreme points in the outcome set of a Multi-Objective (Mixed-) Integer Linear Problem. More precisely, the goal is to find one feasible solution for each extremal supported nondominated point. This is easily achievable in the bi-objective case, because the natural order of nondominated points in this context allows to deduce a weight from two supported points to seek for other supported points with a procedure based on a dichotomic scheme.

However, this problem has long remained unsolved with p objectives, where p is greater than or equal to three. Indeed, the weight defined using p supported points in objective space does not necessarily have only positive components. Consequently, a direct extension of the classical dichotomic scheme is not possible.

After reviewing the main concepts introduced in the exact methods by Przybylski et al. (2010) and Özpeynirci and Köksalan (2010), and in the approximation method by Schandl et al. (2002), we give new insights about the main difficulties in the extension of the dichotomic scheme to the multi-objective case. Next, we propose a new exact method for which only weights with strictly positive components are considered. In contrast to the preceding propositions in the literature, this new method is at the same time, easy to understand, easy to implement, and computationally efficient. Experimental results on instances of the multi-objective assignment problem and of the multi-objective knapsack problem show the practical efficiency of the method.

 

Wintersemester 2016/17

 

Walzen von Stahl - Große Maschinen und viel Mathematik

Dienstag, 10. Januar 2017, 17:30 Uhr, KA.215

Dr. Alexander Thekale, Primetals Technologies, Erlangen

Gewalzte Bleche aus Stahl begegnen uns ständig im Alltag und sind kaum weg zu denken: Autokarosserien, Waschmaschinen, Mikrowellen, Balkongeländer oder Deckenverkleidungen sind oft aus Stahlblechen. Aber auch im industriellen Umfeld ist Stahl einer der wichtigsten Werkstoffe. Aus solchen Blechen werden Maschinen, Tanks oder Pipelines hergestellt. Produziert werden Stahlbleche in so genannten Walzwerken, die aus dicken, gegossenen Stahlblöcken dünne Bleche walzen. Auf den ersten Blick klingt das simpel, aber durch immer weiter steigende Anforderungen an die zu walzenden Materialien und deren Toleranzen ist das Walzen von Stahl immer noch spannend und technologisch hoch komplex.

Im Rahmen dieses Vortrags wird zuerst ein Überblick gegeben wie Stahl erzeugt und gewalzt wird und es werden einige Herausforderungen dargestellt. Viele Fragestellungen bei der Steuerung von Walzwerken lassen sich nur mit Hilfe mathematischer Verfahren oder mathematisch-physikalischer Modelle lösen. Anhand einiger Beispielen werden die Lösungsideen und die verwendeten Verfahren beschrieben. Ein Beispiel zeigt wie man das Durchbiegen der Walzen während des Walzens berechnet, hierfür wird dieser Effekt durch Differentialgleichungen beschrieben und durch Verfahren der Numerischen Mathematik gelöst. In einem anderen Beispiel wird eine Möglichkeit dargestellt, wie man eine möglichst optimale Reihenfolge der gewalzten Bleche, also einen optimalen Produktionsplan, vorab bestimmt.

 

Die Entdeckung der verschollenen Grossen Arithmetic des Nürnberger Rechenmeisters Anton Neudörffer (1571-1628)

Dienstag, 22. November 2016, 17:30 Uhr, KA.215

Prof. Dr. Alfred Holl, TH Nürnberg, Fakultät Informatik

Der Nürnberger Schreib- und Rechenmeister Anton Neudörffer (1571-1628), Enkel des berühmten Nürnberger Modisten Johann Neudörffer (1497-1563), ist durch seine mehrfach aufgelegte Anweisung in die Arithmetic bekannt. Die seit 1616 dort angekündigte Grosse Arithmetic blieb in den Wirren des 30jährigen Krieges ungedruckt; es ist auch kein Manuskript überliefert. Die Bayer. Staatsbibliothek München besitzt aber eine über 1400seitige Handschrift (Cgm 3789), deren Bedeutung für die Neudörffer-Forschung erst 2014 erkannt wurde. Der in Nürnberg ausgebildete Regensburger Rechenmeister Georg Wendler (1619-1688) bearbeitet darin Aufgaben aus fast 40 Rechenbüchern, darunter auf 190 Seiten 280 Prosa- und Reim-Textaufgaben der Grossen Arithmetic. Ausgewählte Beispiele aus diesem herausragenden Dokument der Nürnberger Kaufmannsmathematik sollen diskutiert werden, um deren Qualität ebenso wie Probleme einer Edition zu zeigen.

 

Über eine vergessene Formel der Matrizenrechnung

Dienstag, 8. November 2016, 17:30 Uhr, KA.215

Prof. Dr. Rudolf Rupp, TH Nürnberg, Fakultät AMP

In diesem Vortrag stellen wir eine zu Unrecht in der Lehrbuchliteratur vergessene Formel zur Berechnung der Matrix-Exponentialfunktion von 2x2-Matrizen auf. Durch Einsetzen der Matrizenelemente können wir direkt die Exponentialmatrix berechnen, ohne den Umweg über eine Basis aus Eigenvektoren (so überhaupt existent) oder die Jordansche Normalform (mittels Hauptvektoren) gehen zu müssen. Als Anwendung ergibt sich eine fertige Formel zur Lösung des Anfangswertproblems eines homogenen linearen 2x2-Differentialgleichungssystems mit konstanten Koeffizienten.

 

Selbsterregte Schwingungen am Schienenfahrzeug - Wirkmechanismen, Methoden der Beherrschung, Herausforderungen

Dienstag, 25. Oktober 2016, 17:30 Uhr, KA.215

Dipl.-Math. Thomas Benker, LogoMotive GmbH, Nürnberg

Im betrieblichen Umfeld eines Schienenfahrzeuges führen Schwingungen unterschiedlicher Art und Ausprägung zur Belastung von Fahrzeug, Fahrweg und Transportgut. Die Beherrschung solcher Schwingungen stellt somit einen wichtigen Baustein im Rahmen der Auslegung und Optimierung von Fahrzeugen und Fahrzeugkomponenten dar.

Zwei wesentliche Schwingungen bei Eisenbahnfahrzeugen gehören zu der Gruppe der sogenannten selbsterregten Schwingungen. Hierbei handelt es sich um den Wellenlauf des Radsatzes und um Torsionsschwingungen am Radsatz. Im Rahmen des Vortrages wird dargestellt, was selbsterregte Schwingungen auszeichnet, wie sie entstehen und welche besonderen Maßnahmen man ergreifen muss um sie zu beherrschen.

Der Vortrag schlägt den Bogen von betrieblichen Erfahrungen und Umweltbedingungen zu theoretischen Betrachtungen, wie physikalische Ersatzmodelle und mathematische Simulationsmodelle. Er zeigt relevante Wirkmechanismen ebenso wie die Methoden zur Beherrschung der Phänomene auf. Vor- und Nachteile unterschiedlicher Lösungsansätze werden diskutiert.

 

Raumflugbetrieb beim DLR in Oberpfaffenhofen

Dienstag, 11. Oktober 2016, 17:30 Uhr, KA.215

Dr. Tobias Göttfert, Deutsches Zentrum für Luft- und Raumfahrt (DLR) Oberpfaffenhofen

Das Deutsche Raumfahrtkontrollzentrum (German Space Operations Center, GSOC) als Teil des DLR Raumflugbetriebs betreibt verschiedenste Raumflugmissionen, von der Erdbeobachtung bis hin zu bemannten Missionen. Prominente Beispiele sind das Columbus-Modul der ISS, die Zwillings-Radarmission TerraSAR-X und TanDEM-X im engen Formationsflug oder das Europäische Daten-Relay-System EDRS. Auch die Entwicklung von neuen Technologien zur Raumfahrt, wie z.B. Telepräsenz, autonomem Docking oder raumfahrttauglicher Hard- und Software, sowie die Entwicklung von Höhenforschungsraketen zum Einsatz rund um den Globus gehören zu seinen Aufgaben. Der Vortrag beleuchtet einige ausgewählte physikalische, mathematische und informationstechnische Fragestellungen und Herausforderungen, vor denen die Wissenschaftler und Raumfahrtingenieure stehen und gibt einen Einblick in die Berufsbilder an der Einrichtung.

 

Sommersemester 2016

 

Gravitationswellen - was ist daran so interessant?

Dienstag, 28. Juni 2016, 17:30 Uhr, KA.002

Dr. Walter Winkler, Max-Planck-Institut für Gravitationsphysik, Hannover

Im ersten Teil wird das "Ereignis" vorgestellt und besprochen: das erste registrierte Gravitationswellensignal. Es folgt eine Beschreibung der Eigenschaften von Gravitationswellen. Schließlich wird die Entwicklung von Gravitationswellendetektoren vom Anfang bis zum gegenwärtigen Stand beschrieben. Abschließend folgt ein Ausblick auf die geplante weitere Forschung auf diesem Gebiet.

 

Ausbreitung von Infrarot-Licht in Räumen

Dienstag, 7. Juni 2016, 17:30 Uhr, KA.215

Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede

Mit Infrarot-Übertragung in Räumen kommt jeder in Berührung, der eine TV-Fernbedienung in der Hand hat. Weit verbreitet sind auch Kopfhörer mit Infrarot-Übertragung.

Die Übertragung deutlich höherer Datenraten ist möglich, z.B. für WLAN-Verbindungen. Auch ist nicht unbedingt immer eine direkte Sichtverbindung zwischen Sender und Empfänger notwendig. Infrarot-Übertragung kann im Prinzip sehr gut funktionieren, wenn die direkte Komponente abgeschattet ist und nur ein diffuses Signal über die Reflexionen an Wänden und Einrichtungsgegenständen empfangen wird.

Um die Qualität einer derartigen optische Verbindung vorherzusagen, muss man aber die Ausbreitung des Infrarot-Lichts genauer beschreiben können. Gerade für die diffuse Verbindung spielt dabei bei hohen Datenraten nicht nur die optische Empfangsleistung eine Rolle, sondern auch der Frequenzgang, der durch das Echomuster der Reflexionen verursacht wird.

In diesem Vortrag wird ein neuartiger Ansatz vorgestellt, um den optischen Übertragungskanal für einen vorgegebenen Raum zu berechnen. Dieser Ansatz beinhaltet nicht nur Reflexionen bis zu einer bestimmten endlichen Ordnung, sondern berechnet die unendliche Summe der Beiträge aller Ordnungen, die zu der Übertragungsfunktion beitragen.

Dieses Verfahren wird an Hand konkreter Beispiele für Szenarien in Räumen erläutert. Die numerischen Ergebnisse werden vorgestellt und die optischen Ausbreitungsverhältnisse diskutiert.

 

Röntgenbildgebung in der Medizin – Was die Physik zur Diagnose beiträgt

Dienstag, 24. Mai 2016, 17:30 Uhr, KA.215

Dr. Peter Bartl, Siemens Healthcare GmbH, Erlangen

Bildgebende Verfahren sind in der heutigen Medizin ein höchst wertvolles und nicht wegzudenkendes diagnostisches Mittel. An Beispielen von Produkten der Siemens Healthcare GmbH wird ein Überblick über den aktuellen Stand der Technik der Röntgenbildgebung gegeben. Im Besonderen wird außerdem technisch und physikalisch auf die Bildqualität eingegangen.

 

Simulationen von Ionenantrieben - zwischen Numerik und Experiment

Dienstag, 3. Mai 2016, 17:30 Uhr, KA.215

Dipl.-Phys. Julia Duras, ITSIM-Projekt, TH Nürnberg bzw. Uni Greifswald

Ionenantriebe, wie sie zur Lagekorrektur eines Satelliten verwendet werden, liefern typischerweise Schübe im mN-Bereich bei einem Plasmavolumen von einigen 10-100cm^3. Durch dieses geringe Volumen sind typische Messmethoden häufig invasiv und können daher nur schwer zum Verständnis der physikalischen Prozesse im Antrieb beitragen. Hier können numerische Simulationen Abhilfe schaffen und darüber hinaus auch experimentelle Rahmenbedingungen untersuchen wie sie zum Beispiel in Vakuumkammern auf der Erde nicht zu realisieren sind.

Im Vortrag möchte ich einen Einblick in die Simulation von Ionenantrieben gegeben, wie sie unter Anderem im Projekt "ITSIM" der TH Nürnberg verwendet werden. Hierbei soll neben den physikalischen Mechanismen und den numerischen Techniken vor allen Dingen das Wechselspiel zwischen Simulation und Experiment im Vordergrund stehen.

 

Ionentriebwerke für Raumfahrtanwendungen

Dienstag, 26. April 2016, 17:30 Uhr, KA.215

Prof. Dr. Norbert Koch, TH Nürnberg, Fakultät AMP

Raumfahrtantriebe beruhen auf dem Rückstoßprinzip, bei dem die Schubkraft auf den Raumflugkörper durch das Produkt des vom Triebwerk ausgestoßenen Treibgas-Massenflusses und dessen Austrittsgeschwindigkeit bestimmt ist. Während bei den bisher mehrheitlich verwendeten chemischen Triebwerken die Austrittsgeschwindigkeit durch die chemische Bindungsenergie auf etwa 3000 m/s beschränkt ist, können durch Ionenantriebe, bei denen der Treibstoff zuerst ionisiert und die Ionen dann elektrostatisch beschleunigt werden, bis zu 20-fach höhere Austrittsgeschwindigkeiten realisiert werden. Die daraus resultierende Treibstoffeinsparung führt zu einer signifikant reduzierten Startmasse des Raumflugkörpers. Dadurch können einerseits manche wissenschaftliche Missionen in den tiefen Weltraum erst ermöglicht und andererseits kommerzielle Satelliten entweder kosteneffizienter ins All gebracht oder nutzlastoptimiert werden. Im Kolloquiumsvortrag werden die physikalischen Grundlagen, der grundsätzlichen Aufbau eines Ionentriebwerkssystems und die gängigen Ionentriebwerkstypen - Gitter-, Hall-Effekt- und Hocheffizienz-Mehrstufen-Plasma-Triebwerke - in Konzept, Leistungscharakteristik und Betriebseigenschaften auf Komponenten- und Systemebene vorgestellt. Ebenso wird auf Missionsanforderungen wie Lebensdauer, Betriebsstabilität und Integrationsaspekte eingegangen. Abschließend wird auf die Aktivitäten der TH Nürnberg im Bereich der Simulation von Ionentriebwerken eingegangen.

 

Prinzipien des blockbasierten Hybridcodecs und die Anwendung in aktuellen Videocodierstandards

Dienstag, 19. April 2016, 17:30 Uhr, KA.215

Dr.-Ing. Eugen Wige, Citrix Online Germany GmbH, Dresden

Heutzutage ist es nahezu jederzeit und überall möglich Videosignale in einer sehr hohen Qualität auf verschiedenste Art und Weise betrachten zu können. Um den Transport der Videosignale effizient zu gestalten, werden diese digitalisiert und anschließend quellencodiert. Dabei hat sich vor allem das Prinzip der blockbasierten Hybridcodierung durchgesetzt, welche auch die Basis des aktuellen H.264/AVC und des gerade ankommenden H.265/HEVC Videocodierstandards darstellt.

In der Quellencodierung von Videosignalen versucht man einerseits Redundanzen zu beseitigen und andererseits die Irrelevanz zu reduzieren. Unter der Berücksichtigung mancher Videosignaleigenschaften und unter bestimmten Annahmen landet man bei der sogenannten blockbasierten hybriden Videocodierung.

Der Vortrag soll einen Einblick in wesentliche Techniken der Videokompression geben und zeigen wie auch die aktuellen Videocodierstandards nach diesen Prinzipien arbeiten.

 

Wintersemester 2015/2016

 

Wirtschaft und Physik – wie passt das zusammen?

Dienstag, 12. Januar 2016, 17:30 Uhr, KA.215

Prof. Dr. Andreas Thümmel, Hochschule Darmstadt

Differentialgleichungen sind für Naturwissenschaftler unverzichtbarer Bestandteil der Modellierung und Berechnung von Effekten und Vorgängen ihrer Disziplinen. Weniger bekannt sind jedoch die Ansätze dieser Modellierungen in den Wirtschaftswissenschaften. Die Verknüpfung von Physikalischen Gesetzen mit wirtschaftlichen Phänomenen begründet eine interdisziplinäre Fachrichtung, die Econophysic oder Wirtschaftsphysik.

Der Vortrag soll anhand einfacher Modelle die Parallelität zwischen bestimmten Gleichungen der Physik und den Bilanzgleichungen der Wirtschaftswissenschaften aufzeigen. Besondere Beachtung wird der Erklärung und der Eliminierung von stochastischen Effekten zu deterministischen (gewöhnlichen und partiellen) Differentialgleichungen gegeben. Ein Ausblick auf die Spieltheorie ergänzt die Anwendungen von physikalischen Modellen in dieses besonders interessante und sehr aktuelle Fachgebiet.

 

Dynamik dünner Flüssigkeitsfilme -- physikalische Fragestellung und mathematische Antworten

Mittwoch, 16. Dezember 2015, 17:30 Uhr, KA.213

Prof. Dr. Günther Grün, Lehrstuhl für Angewandte Mathematik 1, FAU Erlangen

In diesem Vortrag soll am Beispiel von Fragestellungen, die sich in Zusammenhang mit dem Benetzungsverhalten dünner Flüssigkeitsfilme ergeben, dargestellt werden, in welcher Weise Angewandte Mathematik mit rigoros analytischen und numerischen Methoden zur Problemlösung beitragen kann. Insbesondere werden wir die Grundidee numerischer Verfahren für die zugrunde liegende zeitabhängige partielle Differentialgleichung vierter Ordnung erläutern.  Simulationsrechnungen werden die Vorhersagekraft dieses Zugangs demonstrieren.

In welcher Weise die hierzu notwendigen Kompetenzen im Rahmen eines Masterstudiums an der Universität Erlangen-Nürnberg vermittelt werden, wird Gegenstand des zweiten Teils des Vortrags sein.

 

Wie lässt sich das Klima der Zukunft berechnen?

Dienstag, 1. Dezember 2015, 17:30 Uhr, KA.215

Dr. Paul Becker, Deutscher Wetterdienst, Offenbach

Der Vortrag stellt zunächst einige grundlegenden Prinzipien der Klimamodellierung dar. Im Anschluss werden die Grenzen der Vorhersagbarkeit beleuchtet, die je nach Vorhersagezeitraum von unterschiedlichen Faktoren und Prozessen hervorgerufen wird. Im dritten Teil des Vortrags werden die bereits erfahrenen Änderungen des Klimas deren zukünftiger Entwicklung gegenübergestellt. Dabei liegt der Fokus auf der 2m Lufttemperatur, dem Niederschlag und dem Wind als den Klimaelementen, die derzeit am meisten nachgefragt werden.

 

Die Simulation des Wälzkontakts und die Mathematik dahinter

Dienstag, 3. November 2015, 17:30 Uhr, KA.215

Dipl.-Technomath. Alexander Liebel, Schaeffler Technologies, Herzogenaurach

Wälzlager werden überall dort eingesetzt, wo sich Dinge bewegen müssen. Sie sind unterschiedlichsten Lasten und Bewegungen ausgesetzt. Bei der Auslegung und der Produktentwicklung kommen heutzutage unterschiedliche Simulationswerkzeuge zum Einsatz. Eines davon ist die Kontaktsimulation, die den Blick zwischen zwei Elemente, wie zum Beispiel die Laufbahn und einen Wälzkörper gewährt und unterschiedlichste Fragen, beispielsweise nach dem Schmierungszustand, beantworten soll.

Dahinter verbirgt sich, für die Anwender der Software weitgehend unsichtbar, jede Menge Mathematik, um das Problem zu beschreiben und schließlich zu berechnen. Als Beispiele seien hier die Elastizitätsgleichung und die Reynolds-Gleichung genannt, die die elastischen Verformungen bzw. den Ölfluss im Schmierspalt beschreiben.

In diesem Vortrag wird ein Überblick über die Gleichungen und die eingesetzten Lösungsverfahren gegeben, sowie die Simulation selbst vorgestellt werden.

 

Machen Gene krank? Auf der Suche nach dem Einfluss genetischer Varianten auf den Menschen am Beispiel der Altersabhängigen Makuladegeneration

Dienstag, 20. Oktober 2015, 17:30 Uhr, KA.215

Dipl.-Inf. Mathias Gorski, Institut für Epidemiologie und Präventivmedizin, Universität Regensburg

 

Das Universitätsklinikum Regensburg widmet sich der medizinischen Versorgung von Patienten, der Ausbildung von Ärzten und der Weiterentwicklung der Medizin durch international renommierte Forschung. Der Lehrstuhl für Genetische Epidemiologie in Regensburg untersucht dabei den Einfluss von genetischen Varianten und deren Wechselwirkung mit Lebensstil- und Umweltfaktoren für Merkmale und Erkrankungen im Menschen.

Der Vortrag ermöglicht einen Einblick in die genetische Forschung und zeigt auf, wie die Genetik und personengebundene Daten digitalisiert und verarbeitet werden. Es wird der Weg von den erfassten Rohdaten bis hin zu genetischen Assoziations-Analysen vorgestellt und am Beispiel der Altersabhängigen Makuladegeneration veranschaulicht.

Ein dedizierter Blick in die verwendeten mathematischen Modelle und die Einbettung der Arbeiten in Hochleistungsrechensysteme erläutert dabei die praktische Bedeutung für Studierende der Technischen Hochschule Nürnberg.

 

Sommersemester 2015

 

Reaktorsicherheit nach Fukushima - Unfallablauf, -ursachen und Lessons Learned?

Dienstag, 16. Juni 2015, 17:30 Uhr, KA.215

Dr. Christoph Pistner, Öko-Institut e.V. Darmstadt

Am 11.03.2011 führte ein schweres Erdbeben und darauf folgender Tsunami im japanischen Atomkraftwerk Fukushima Dai-ichi zum weltweit zweiten katastrophalen Unfall (INES 7) – knapp 25 Jahre nach dem Unfall von Tschernobyl. Damit wurde erneut das Problem der Reaktorsicherheit in die öffentliche Diskussion gerückt.

Der Vortrag gibt zunächst einen Überblick zum heutigen Stand der Kernenergienutzung und der grundsätzlichen Probleme der Reaktorsicherheit. Darauf aufbauend werden der Ablauf, die wesentlichen Ursachen und die Folgen des Unfalls von Fukushima Dai-ichi dargestellt und auf die heutige Situation und die offenen Probleme eingegangen.

In der Folge des Ereignisses wurden weltweit Überprüfungen der Reaktorsicherheit bei laufenden wie geplanten Reaktoren vorgenommen, in Europa als sogenannter „EU-Stresstest“. Aufbau und Umfang dieser Überprüfung sowie wesentliche Erkenntnisse werden dargestellt und diskutiert.

 

Simulation von elektromagnetischen Feldern - Theorie, Numerik, Anwendungen

Dienstag, 2. Juni 2015, 17:30 Uhr, KA.215

Prof. Dr. Georg Wimmer, Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt

Langsam veränderliche elektromagnetische Felder werden beschrieben durch die quasistatische Approximation der Maxwell Gleichungen, bei der Wellenausbreitungseffekte vernachlässigt werden. Für eine große Zahl von technischen Geräten, wie z.B. Elektromotoren, Transformatoren, Generatoren trifft dies zu.

Für die Simulation am Rechner muß zunächst der physikalische Prozess, der durch partielle Differentialgleichungen beschrieben wird, mit geeigneten gitterbasierten Methoden, wie z.B. der Finiten Integrationstechnik (FIT) oder der Finiten Elemente Methode (FEM), im Raum sowie mit Zeitintegrationsverfahren in der Zeit diskretisiert werden. Die resultierenden großen linearen Gleichungssysteme erfordern spezielle Lösungsverfahren, welche durch Projektionstechniken beschleunigt werden können.

 

Learning in the presence of Adversaries

Dienstag, 28. April 2015, 17:30 Uhr, KA.215

Prof. Dr. Giorgio Ciacinto PhD, Università di Cagliari, Italien

Nowadays machine learning techniques are increasingly employed to perform detection tasks where the goal is to filter out unwanted or illicit patterns. Security applications offer different examples of these types of tasks, such as, spam filtering, malware detection, phishing detection, biometric authentication, etc.

In order to evade detection, attackers try to attack the learning algorithm first, either by poisoning the training data, or by crafting the malicious patterns so that they classified as benign patterns. In this talk I will present the activities carried out at the PRA Lab of the University of Cagliari where we proposed a methodological approach to the security evaluation of pattern classifiers, we tested the approach on different application scenarios, and we provided some suggestions to the development of robust pattern classifiers.

 

Auslegung von Brennstäben für Kernreaktoren – mathematisch physikalische Behandlung

Dienstag, 24. März 2015, 17:30 Uhr, KA.215

Dipl.-Phys. Martin Sperlich, AREVA, Erlangen

Sicherheitsanalysen in der Kerntechnik umfassen die Anwendung von Methoden und Modellen aus der Mathematik, der Physik und den Ingenieurwissenschaften. Am Beispiel der Auslegung von Brennstäben für Kernreaktoren wird die Komplexität des Zusammenspiels zwischen den verschiedenen technischen Bereichen in der Praxis gezeigt, um solche Analysen führen zu können. Dies umfasst die Modellbildung zur Beschreibung physikalischer thermomechanischer Eigenschaften und des Verhaltens des Kernbrennstoffs und der Brennstabhülle, analytische Herangehensweisen aus den Ingenieurwissenschaften zur Auslegung sowie die Anwendung mathematischer Methoden wie der Monte Carlo Simulation auf Basis von rechnergestützten Analysen.

 

Wintersemester 2014/2015

 

Quantitative Bildanalyse für die Tumortherapie am Beispiel der Leber

Dienstag, 9. Dezember 2014, 17:30 Uhr, KA.215

Dr.-Ing. Andrea Schenk, Fraunhofer MEVIS, Bremen

Zur Planung und Beurteilung einer Krebstherapie werden unter anderem auch radiologische Bilddaten analysiert. Dabei entscheiden Messgrößen wie Anzahl, Lage, Durchmesser oder Volumen der Tumore und auch die Anatomie des Organs über die Behandlung, die z.B. eine chirurgische Entfernung der Krebsherde oder eine Chemotherapie sein kann.

Im Vortrag werden verschiedene Bildverarbeitungsmethoden für Tumore vorgestellt und diese Verfahren mit der derzeitig empfohlenen klinischen Auswertung nach den RECIST-Kriterien verglichen. Es werden die bildbezogenen Herausforderungen sowie Genauigkeit und Reproduzierbarkeit der verschiedenen Methoden und die Auswirkungen für die Therapieentscheidung diskutiert.

Für die chirurgische Entfernung von Tumoren ist über die Bewertung der Krebsherde hinaus die Analyse der verbleibenden Organfunktion entscheidend. Am Beispiel der Leber wird gezeigt, dass diese nicht nur vom Organvolumen nach der Operation abhängt, sondern auch von der Blutversorgung und dem Blutabfluss des verbleibenden Teilorgans. Neben den Methoden der Bildsegmentierung werden Risikoanalysen und andere Aspekte bei der chirurgischen Planung diskutiert. Erfahrungen aus dem Einsatz der mathematischen Methoden in der Klinik und die Nutzung der Ergebnisdaten im Operationssaal sind weitere Vortragsthemen.

 

Quantencomputer

Dienstag, 28. Oktober 2014, 17:30 Uhr, KA.002

Prof. Dr. Alexander Braun, Fachhochschule Düsseldorf

Was ist ein Quantencomputer? Kann er wirklich alle aktuellen Verschlüsselungen brechen? Wann wird es einen Quantencomputer geben? Diese und weitere Fragen möchte ich Ihnen im Rahmen eines Vortrages mindestens näher bringen, wenn nicht sogar beantworten. Neben einer geschichtlichen Einführung in das Thema, lernen Sie Ihren ersten echten Quantenalgorithmus mit einem einzelnen Quanten-Bit kennen, und wieso dieses winzige System für die klassische Informationsverarbeitung ein spektakulärer Fortschritt ist.

 

Sensationen am Himmel: Galilei und Marius entdecken die Jupitermonde

Dienstag, 14. Oktober 2014, 17:30 Uhr, KA.440a

Pierre Leich

Vor vierhundert Jahren veröffentlichte der markgräfliche Hofastronom Simon Marius (1573–1624) seine teleskopischen Beobachtungen im „Mundus Iovialis“. Obwohl Galilei bereits vier Jahre zuvor über Mondgebirge, Jupitermonde und Venusphasen berichtet hatte, gilt die Forschung von Marius inzwischen als zeitgleich und unabhängig.

Der Vortrag stellt die Entdeckungen von Marius und Galilei in den astronomiehistorischen Kontext und verdeutlicht, warum beide so unterschiedliche Schlüsse zogen. Abschließend wird das 28-sprachige Marius-Portal vorgestellt, das alle Publikationen von und zu Marius verfügbar macht oder zumindest nachweist.

 

Sommersemester 2014

 

Anwendungsspektrum der Röntgencomputertomographie Subμ bis XXT-CT

Dienstag, 17. Juni 2014, 17:30 Uhr, KA.217

Dipl.-Ing. Michael Salamon, Fraunhofer Entwicklungszentrum Röntgentechnik, Fürth

 

PCPs oder Wie findet man Fehler in potentiellen Beweisen, ohne sie ganz zu lesen?

Dienstag, 27. Mai 2014, 17:30 Uhr, KA.217

Prof. Dr. Klaus Meer, TU Cottbus

Eines der zentralen Resultate der letzten 20 Jahre in der Informatik ist der sogenannte PCP-Satz von Arora et al. Er gibt eine überraschende Charakterisierung der fundamentalen Komplexitätsklasse NP über probabilistisch prüfbare Beweise.

Genauer handelt es sich bei der Klasse NP um Probleme, bei denen man ein Objekt mit einer gewissen Eigenschaft in einem sehr großen Suchraum sucht; das Überprüfen der Eigenschaft geht dabei schnell, sofern ein Lösungskandidat vorliegt, aber wie man i.A. ein geeignetes Objekt schnell findet oder nachweist, dass keines existiert, ist bislang ungelöst ('P versus NP'-Frage). Typische Probleme, die die Komplexität der Klasse NP widerspiegeln, sind etwa das Rundreiseproblem der Graphentheorie, das Erfüllbarkeitsproblem der Aussagenlogik oder die Frage, ob eine Aussage in einem vorgegebenen endlichen Axiomensystem einen Beweis bestimmter Länge hat. Ist ein solcher Beweis vorgelegt, dann lässt sich im Prinzip einfach prüfen, ob er tatsächlich stimmt. Dazu wird man im Allgemeinfall den gesamten Beweis ansehen müssen.

Ausgangspunkt beim PCP-Satz ist nun die Frage, ob das so sein muss. Das überraschende Ergebnis: Bei geeigneter Anforderung des Prüfenden an den vorgelegten Beweis reicht es, sich nur konstant viele Stellen anzuschauen, um einen Fehler mit hoher Wahrscheinlichkeit zu finden. Die ausgesuchten Stellen werden dabei in gewissem Sinne randomisiert bestimmt, die Anzahl der Stellen ist unabhängig von der Länge der zu beweisenden Aussage.

Der Vortrag möchte eine Einführung in diesen Themenkreis und den PCP-Satz geben. Sofern genügend Zeit ist, wird am Ende auf eigene Arbeiten im Dunstkreis des PCP-Satzes eingegangen.

 

Rechenmeister und Rechenbücher im frühneuzeitlichen Regensburg

Dienstag, 13. Mai 2014, 17:30 Uhr, KA.217

Prof. Dr. Alfred Holl, TH Nürnberg, Fakultät Informatik

Die Rechenkunst in West- und Mitteleuropa begann um die Mitte des 15. Jahrhunderts, Klöster und Universitäten ebenso wie die lateinische Sprache hinter sich zu lassen. Sie wandelte sich zur Domäne der Kaufleute, für die volkssprachliche Rechenbücher verfasst wurden. Die rein kaufmännischen Aufgaben geben wichtige kulturhistorische Aufschlüsse über gehandelte Waren und ihre Preise, über Edelmetalle und Währungen, über Gewichte und Längenmaße. Darüber hinaus soll im Vortrag das Augenmerk auf unterhaltungsmathematische Problemstellungen in typisch mittelalterlichem oder besonders originellem Gewand gerichtet werden.

In Bezug auf Rechenmeister und Rechenschulen spielt Regensburg im 16. Jh. im Vergleich zu den nächstgelegenen reichsstädtischen „Rechen-Zentren“ in Nürnberg, Augsburg und Ulm eine eher untergeordnete Rolle. In Regensburg erscheint - nach Handschriften des 15. Jh. - das erste gedruckte Rechenbuch erst 1578, hundert Jahre nach den frühesten im Nürnberger Raum. Sein Autor ist der bisher ziemlich unbekannte Rechenmeister und Schulhalter Johann Kandler (+1600). Zu seinem Rechenbuch sind glücklicherweise die zugehörigen handschriftlichen Rechenhefte eines Rechenschülers aus den 1590er Jahren erhalten geblieben, eine seltene Ausnahme im deutschen Sprachraum. Dieses brandneue Forschungsergebnis wird einen der Schwerpunkte des Vortrags bilden.

 

A new ν-metric in control theory

Dienstag, 6. Mai 2014, 17:30 Uhr, KA.217

Prof. Dr. Amol Sasane, London School of Economics

The need for measuring distances between control systems is basic in control theory. A desirable metric for specifying closeness of control systems was introduced by Glenn Vinnicombe in 1993, and is called the ν-metric. Vinnicombe only considered linear control systems described by constant coefficient ordinary differential equations, but left open the question of handling partial differential equations or delay-differential equations. We address this issue and give a new ν-metric in control theory which also covers such partial/delay-differential equations. I will give a brief introduction to control theory, and so the talk should be accessible to all.

 

Zuverlässige Datenübertragung mit geringsten Sendeleistungen

Dienstag, 8. April 2014, 17:30 Uhr, KA.215

Dr.-Ing. Jörg Robert, FAU Erlangen-Nürnberg, Lehrstuhl für Informationstechnik

Schlagwörter wie „Internet of Things“, „Smart Metering“ oder „Infrastructure Monitoring“ sind momentan in aller Munde. Technisch bedeutet dies die Anbindung sehr vieler Geräte (>10.000 je Zelle), für die jedoch heutige Übertragungssysteme, z.B. basierend auf WLAN oder Mobilfunk, in der Regel nicht geeignet sind. Grund hierfür ist der zu hohe Stromverbrauch und die Optimierung auf hohe Datenraten bei nur wenigen Nutzern. Daher forscht der Lehrstuhl für Informationstechnik mit dem Schwerpunkt Kommunikationselektronik (LIKE) der Friederich-Alexander Universität Erlangen-Nürnberg an neuen zuverlässigen Übertragungssystemen, die auf Netze mit sehr vielen Teilnehmern optimiert sind. Der Fokus liegt hierbei auf einer Minimierung des Stromverbrauchs, sodass auch mit einer kleinen Knopfzellenbatterie ein mehrjähriger Betrieb gewährleistet werden kann. Trotz der geringen Sendeleistung von nur wenigen Milliwatt können diese Systeme eine Reichweite von mehreren km erreichen. In Zusammenarbeit mit Prof. Lauterbach von der Technischen Hochschule Nürnberg Georg Simon Ohm findet momentan ein Feldtest statt, um die Leistungsfähigkeit dieser Systeme unter realen Bedingungen zu untersuchen.

Innerhalb des Vortrages soll ein Einblick in die bisherigen Forschungsergebnisse und mögliche Anwendungen-Szenarien gegeben werden.

 

Wintersemester 2013/2014

 

Magnetresonanztomografie in Echtzeit

Dienstag, 7. Januar 2014, 17:30 Uhr, KA.215

Dipl.-Inf. Sebastian Schätz, Gesellschaft für wissenschaftliche Datenverarbeitung, Göttingen

Neuste Fortschritte in der Magnetresonanztomografie (MRT) erlauben Biomedizin und Radiologie den Sprung von konventionellen Standbildern hin zu zeitlich hoch aufgelösten MRT-Filmen mit bis zu 50 Bildern pro Sekunde. In diesem Vortrag werden die zentralen Ideen der Echtzeit MRT präsentiert: eine schnelle Datenakquisition, extreme Unterabtastung des Messsignals, ein iterativer Algorithmus, der das Problem der Bildrekonstruktion als nicht-lineares System löst und dessen effiziente Implementierung auf einem Hochleistungsrechner. Um das Potential dieses neuen Verfahrens deutlich zu machen werden einige Beispielanwendung der Echtzeit MRT vorgestellt, wie z.B. Aufnahmen eines schlagenden menschlichen Herzens.

 

Über die Berge mit Analysis und Numerik

Dienstag, 10. Dezember 2013, 17:30 Uhr, KA.215

Prof. Dr. Jiří Horák, TH Ingolstadt

Im Vortrag werden einige bekannte Ideen der Variationsrechnung im Zusammenhang mit Energiefunktionalen von physikalischen Systemen vorgestellt. Aus mathematischer Sicht handelt es sich um Randwertprobleme mit partiellen Differentialgleichungen. Als Hauptbeispiel, das uns durch den ganzen Vortrag begleiten wird, dient ein Modell zu kleinen Deformationen dünner zylindrischer Röhren unter Axiallast. Weitere Beispiele und Lösungsansätze werden präsentiert. Dabei wird das Wechselspiel zwischen analytischen und numerischen Zugängen hervorgehoben.

 

Die umgedrehte Vorlesung: Inverted Classroom mit Videos / Erste Erfahrungen

Dienstag, 3. Dezember 2013, 17:30 Uhr, KA.215

Prof. Dr. Peter Jonas, TH Nürnberg, Fakultät AMP

Der ‚Inverted Classroom‘ findet seit einigen Jahren durch die Nutzung von digitaler Lehr-  und Lernmethoden immer breitere Anwendung.  Die Grundidee des ‚Inverted Classroom‘ ist recht einfach: Die Vermittlung der Inhalte, die in klassischen Lehrveranstaltungen in Form von Präsenzveranstaltungen stattfindet, wird  ausgelagert und findet zeit- und ortsungebunden mit Hilfe von Videos über das Internet statt. Die nun frei werdende  Präsenzveranstaltung dient dann zur Diskussion sowie Übung der Lerninhalte.

In dem Vortrag wird ein Praxisbeispiel vorgestellt, wie ein ‚Inverted Classroom‘ für einen Themenblock in Ingenieurmathematik umgesetzt wurde. Dabei wird speziell auf die technischen, didaktischen und organisatorischen Herausforderungen eingegangen.

 

Multi-Skalen-Probleme: Von Plasmen und ihren Wechselwirkungen mit Wänden bis zur Küstenentwicklung der Ostsee

Dienstag, 26. November 2013, 17:30 Uhr, KA.213

Prof. Dr. Ralf Schneider, Universität Greifswald

Viele akademisch oder technologisch interessante Fragestellungen sind charakterisiert durch eine Beteiligung unterschiedlichster Skalen: von mikroskopischen Effekten (auf atomarer oder molekularer Länge) über mesoskopische Skalen (typischerweise μm) bis zu makroskopischen Längen (m oder länger). Die Behandlung solcher Multi-Skalen Probleme soll exemplarisch an verschiedenen Beispielen behandelt werden.

Als motivierendes Beispiel wird die Dynamik von Tischtennisbällen behandelt. Wasserstofftransport in porösem Graphit zeigt die methodische Behandlung über Parameterübergabe bei schwach gekoppelten Systemen, wohingegen bei biologischen Brennstoffzellen der Bereich nahe der Trennmembran voll mikroskopisch über lokale Gitterverfeinerung aufgelöst werden muss.

Als zweiter Bereich wird die Wechselwirkung von Niedertemperaturplasmen mit Wänden diskutiert, speziell die Dynamik von Radiofrequenz- und Bogenentladungen, sowie von Ionenantrieben in der Raumfahrt.

Zuletzt wird das Problem der Modellierung der Küstenentwicklung an der Ostsee betrachtet, wobei spezielle Methoden zur Datenreduktion und Modellbeschleunigung diskutiert werden.

Was steckt alles hinter der Gewährleistung in der Kfz-Industrie - am Beispiel der Batterie?

Dienstag, 12. November 2013, 17:30 Uhr, KA.213

Dipl.-Ing. Ludwig Bauer, ESG Elektroniksystem- und Logistik-GmbH, München

Die Komplexität der Elektronik in den heutigen Autos wächst permanent. Dies führt zwangsläufig zu einem höheren Risiko für Störanfälligkeiten und auch einem größeren Energiebedarf im Fahrzeug. Im schlimmsten Fall kann aufgrund einer leeren Batterie nicht mehr gestartet werden. Nach Angaben des ADAC haben sich in Deutschland die Batteriepannen seit 1996 vervierfacht.

In dem Vortrag werden Besonderheiten bei der Batterie hinsichtlich Auslegung und Gewährleistung dargestellt. Die Batterie wird meist als Symptom für Probleme des Energiebordnetzes dargestellt, obwohl sie selbst als Komponente nichts dafür kann. Verursacher sind i.d.R. Steuergeräte im Fahrzeug oder das Nutzungsverhalten des Fahrers. Anhand der langjährigen Erfahrung bei der Analyse von Batteriethemen bei einem bayerischen Hersteller von Premiumfahrzeugen wird ein Einblick zur Thematikgegeben und die Vorgehensweise zur präventiven und reaktiven Gewährleistungsarbeit dargestellt.

 

Sommersemester 2013

 

Wie Mathematik bei der Planung von Evakuierungen helfen kann

Dienstag, 25. Juni 2013, 17:30 Uhr, KA.217

Prof. Dr. Horst W. Hamacher, Universität Kaiserslautern

In diesem Vortrag werden Optimierungsmodelle vorgestellt, die Entscheidungsträger dabei unterstützen, Evakuierungen zu planen und Vorhersagen über wichtige Evakuierungsindikatoren (Anzahl der Evakuierten, Gesamtevakuierungszeit, Evakuierungsrouten, etc.) zu machen. Der Schwerpunkt des Vortrags wird auf der Modellierung von

  • Evakuierungstransportproblemen mittels dynamischer Netzwerkflusstheorie

und

  • Planung von Notfall- und Einsatzanlagen mit Hilfe der Standorttheorie

liegen. Außerdem wird das neue Forschungsgebiet FlowLoc als Kombination dieser Modelle vorgestellt, das eine integrative Planung beider, in der Praxis eng miteinander verzahnter, Evakuierungsprobleme ermöglicht. Die Theorie, die Lösungsverfahren und die Software wird so vorgestellt, dass keine speziellen Kenntnisse in der mathematischen Optimierung erforderlich sind.

 

1D-Systemsimulation im Entwurf von hydraulischen Motorsystemen

Dienstag, 4. Juni 2013, 17:30 Uhr, KA.217

Dr. Jochen Broz, Schaeffler Technologies, Herzogenaurach

Die steigenden Anforderungen an Effizienz und Umweltverträglichkeit machen variable Ventiltriebssysteme zu einem unverzichtbaren Bestandteil moderner Verbrennungsmotoren. Für die Entwicklung solcher Systeme sind simulationsgestützte Entwurfsmethoden von zentraler Bedeutung. 1D-Simulationstechniken bieten hier eine leistungsfähige Grundlage, die i.d.R. durch ihre multiphysikalische Struktur (Hydraulik, Mechanik und Elektrodynamik) gekennzeichneten Systeme zu untersuchen. In diesem Umfeld ergeben sich viele interessante Herausforderungen für hochqualifizierter Ingenieure, Mathematiker und Physiker.

Anhand der Beispiele eines hydraulischen vollvariablen Ventiltriebssystems, hydraulischer Nockenwellenversteller und eines schaltbaren Ventiltriebssystems wird gezeigt, wie der Einsatz mathematischer Methoden zu neuen und leistungsfähigen Lösungsansätzen im Entwurf variabler Ventiltriebssysteme beiträgt.

 

Über das Theorem von Malgrange und Ehrenpreis

Donnerstag, 23. Mai 2013, 15:45 Uhr, KA.013

Prof. Dr. Peter Wagner, Universität Innsbruck

Das Theorem von Malgrange-Ehrenpreis ist eines der bedeutendsten Ergebnisse in der Theorie von Differentialgleichungen und sichert die Existenz von Fundamentallösungen linearer Differentialgleichungen mit konstanten Koeffizienten. Im Vortrag wird die Bedeutung solcher Lösungen diskutiert und es werden Beispiele gegeben. Insbesondere wird auf die nun etwa 60-jährige Geschichte unterschiedlicher Beweisideen eingegangen und es wird ein noch relativ neuer, besonders einfacher und konstruktiver Beweis, der vom Vortragenden stammt, vorgestellt.

 

Optische Nano-Lithographie als Schlüsseltechnologie der Chipfertigung

Dienstag, 16. April 2013, 17:30 Uhr, KA.217

Dr. Tilmann Heil, Carl Zeiss GmbH, Oberkochen

Die Optische Nanolithografie ist eine Schlüsselfertigungstechnologie der Halbleiterindustrie, die die rasant zunehmende Leistungsfähigkeit integrierter Schaltkreise eng mit Fortschritten in optischen Technologien verknüpft. Bereits 1965 beobachtete der Intel Gründer Gordon Moore, dass sich die Strukturen eines Chips über die Zeit stetig verkleinern, so dass sich die Dichte der Transistoren eines Chips in etwa alle 2 Jahre verdoppelt. Dieses sogenannte "Moore'sche Gesetz" gilt bis heute, da die Erhöhung der Transistordichte auf einem Chip die effektivste Methode ist, die Kosten pro Funktionseinheit eines Chips zu senken. Daher ist die maximale Auflösung der Strukturen eines Chips ein entscheidender kommerzieller Erfolgsfaktor, der durch die Leistungsfähigkeit des Optischen Systems der Lithografie-Anlage bestimmt wird.

Der Vortrag präsentiert einige Herausforderungen moderner Chipfertigung mit Schwerpunkt auf die Optische Nanolithografie und die Eigenschaften der eingesetzten optischen Systeme. Vorgestellt werden die optischen Entwicklungen der EUV (Extreme Ultra-Violet) Lithografie, die die Volumenproduktion zukünftiger Chip Generationen ermöglichen wird. Anforderungen und aktuelle Leistungsdaten von EUV Optiken werden diskutiert. Die Daten demonstrieren das große Potential der EUV Lithografie , die durch das "Moore'sche Gesetz" beschriebenen Fortschritte weit über die gegenwärtige Dekade hinaus zu ermöglichen.

 

 

Wintersemester 2012/2013

 

Zur iterativen Lösung von linearen Gleichungssystemen

Dienstag, 8. Januar 2013, 17:15 Uhr, KA.213

Prof. Dr. Hubert Karl, Georg-Simon-Ohm-Hochschule Nürnberg, Fakultät efi

Bekanntlich konvergiert eine Fixpunktiteration zur Lösung eines linearen Gleichungssystems genau dann, wenn der spektrale Radius der Iterationsmatrix kleiner eins ist. Es wird ein Verfahren vorgestellt, das die Fixpunktiteration auch dann gewährleistet, wenn diese Bedingung („Spektralradius kleiner eins“) nicht erfüllt ist, und anhand von Rechenbeispielen demonstriert.

 

Mathematik-Kompetenzen überprüfen und fördern - Automatisiert Lehren und Lernen mit STACK

Dienstag, 18. Dezember 2012, 17:15 Uhr, KA.213

Dipl.-Math. Michael Kallweit, Ruhr-Universität Bochum

Mit STACK steht ein computer-gestütztes Assessmentsystem für mathematische Fragestellungen zur Verfügung. Durch Verbindung mit einem Computeralgebrasystem können automatisch Eingaben auf mathematische Eigenschaften getestet, Aufgaben ausgewertet und Bewertungen vorgenommen werden. Mit der Integration in die Lernplattform Moodle steht Lernenden und Lehrenden damit eine moderne und freie eLearning-Lösung für die Mathematik zur Verfügung. Im Vortrag werden Benutzung, Möglichkeiten und Schwierigkeiten dieses Systems vorgestellt und live demonstriert.

 

Computerunterstützte Detektion und Charakterisierung hämodynamischer Flussmuster in 4D geschwindigkeitscodierter Phasenkontrast-MR

Dienstag, 4. Dezember 2012, 17:15 Uhr, KA.213

Dipl.-Inf. Johann Drexl, Fraunhofer MEVIS, Bremen

4D geschwindigkeitscodierte Phasenkontrast-MR (PCMRI) gestattet zusätzlich zur morpologisch-anatomischen Bildgebung die Erfassung eines zeitaufgelösten 3D Geschwindigkeitsfeldes v(x,t). Ganz besonders die klinische Kardiologie könnte von dieser Technik profitieren, denn mit PCMRI ist eine in-vivo Untersuchung patienten-individueller hämodynamischer Flussmuster möglich.

Standard-Visualisierungstechniken aus dem Bereich der Computergraphik (Streamlines, Pathlines, Particle Traces etc) unterstützen bereits heute Experten bei der Analyse der hochgradig komplexen Flussmuster im Herzen und in den großen Blutgefäßen. Einen weiterer Fortschritt verspricht man sich jedoch durch die Entwicklung computergestützter, objektiver Charakterisierungen von hämodynamischen Flussmustern. 

Schwerpunkt dieses Vortrags ist die Detektion kohärenter Strukturen in PCMRI Daten. Dazu wird zunächst eine Einführung in die Thematik und ein Überblick über existierende Methoden aus der Fluiddynamik gegeben. Im Gegensatz zu Datensätzen, die aus CFD Rechnungen stammen, enthalten reale Datensätze (wie die PCMRI Daten) Meßrauschen und sind niedrig aufgelöst. Bei der naiven Anwendung "klassischer" Methoden auf PCMRI Daten ergeben sich deshalb oft Schwierigkeiten. Eine Möglichkeit, diese Probleme zu umgehen, ist die Anwendung von Vector Pattern Matching Methoden. Speziell wird die Adaptive Vector Pattern Matching (AVPM) Methode vorgestellt, welche eine robuste Orientierungsschätzung mit dem Vector Pattern Matching Ansatz verbindet. Abschliessend erfolgt ein Vergleich und ein Benchmarking verschiedener Ansätze zur Detektion kohärenter Strukturen anhand digitaler Phantome, physikalischer Phantome und in-vivo Datensätzen.

 

Arterial Spin Labeling: kontrastmittel-freie MRT-Methode für Perfusionsmessung und mehr

Dienstag, 13. November 2012, 17:15 Uhr, KA.204

Prof. Dr. Matthias Günther, Fraunhofer MEVIS, Bremen

Bildgebende Verfahren in der Medizin sind heute in der Lage, nicht nur strukturelle Bilder vom Inneren des Körpers zu erzeugen, sondern können auch funktionelle Aspekte wie z.B. Durchblutung abbilden. Meistens wird dazu ein Kontrastmittel in eine Armvene eingespritzt, was für den Patienten nicht nur unangenehm ist, sondern auch nicht beliebig wiederholt werden kann. In dem Vortrag wird eine Technik vorgestellt, bei dem das Blut selbst als Kontrastmittel dient, man daher auf die Spritze verzichten kann. Dieses sog. Arterial Spin Labeling ist eine sehr flexible Technik, deren Anwendungsmöglichkeiten weit über die reine Durchblutungsmessung hinausgeht. So besteht die Möglichkeit, die Vorsorgungsgebiete einzelner Gefäße genauso zu beobachten wie Austauschprozesse auf kapillarer Ebene.

 

Sommersemester 2012

 

Interaktive Mathematik-Software für Web und Mobil-Geräte

Dienstag, 26. Juni 2012, 17:15 Uhr, KA.202

Prof. Dr. Alfred Wassermann, Lehrstuhl für Mathematik und ihre Didaktik, Universität Bayreuth

Mobilgeräte wie Tablet-Computer und Smartphones bieten die Chance zu explorativem Umgang mit Mathematik. Gleichzeitig vermeiden Sie in Lehrsituationen die organisatorischen Probleme, die sich bisher bei der Nutzung von Computerräumen oder Notebooks ergaben. Allerdings ist nahezu die gesamte PC-Software auf diesen Geräten nicht mehr lauffähig. Die nötige Portierung existierender Software wird durch die Betriebssystems-Vielfalt bei Mobil-Geräten stark erschwert.

Im Vortrag wird das Projekt JSXGraph vorgestellt, das web-basierte Lösungen aus diesem Dilemma bietet.

JSXGraph ist eine Bibliothek zum Erstellen von Web-Applikationen zur Dynamischen Mathematik. Sie ist Grundlage der Programmiersprache JessieCode, eine Sprache speziell für Euklidische Geometrie und Funktionsgraphen. Diese wiederum ist Grundlage der Software Sketchometry, deren sketch-basierte Fingerbedienung neue Interaktionsmöglichkeiten bietet.

Über Web-Anwendungen für Tablet-Computer hinaus kann JSXGraph direkt in E-Books eingebunden werden und eröffnet damit neue Horizonte bei der Gestaltung interaktiver Lehrbücher.

 

Parameteridentifikation in thermischen Ablationsverfahren

Dienstag, 24. April 2012, 17:15 Uhr, KA.215

Dr. rer. nat. Hanne Tiesler, Fraunhofer MEVIS, Bremen

Thermische Ablationsverfahren werden heute in vielen Fällen als schonende Therapie für die Behandlung von Tumoren eingesetzt. Um das gesamte Potential dieser Verfahren nutzen zu können und für den Patienten den bestmöglichen Erfolg zu erzielen, ist eine sorgfältige und patientenbezogene Planung nötig.

Zur Unterstützung der Therapie und insbesondere der Planung, wurden mathematische Modelle entwickelt, mit denen der Vorgang der Ablation im Vorfeld simuliert werden kann.

In diesem Vortrag soll es darum gehen, wie man die Simulation und damit die Planung weiter verbessern, also insbesondere besser auf den einzelnen Patienten abstimmen kann. Dafür wird ein mathematisches Identifikationsproblem zur Bestimmung der Gewebeparameter vorgestellt. Das Ziel der Parameteridentifikation ist die Berechnung der unbekannten Gewebeparameter für den individuellen Patienten, da diese das Modell und damit die Vorhersage für den Erfolg der Therapie maßgeblich beeinflussen.

Für die Identifikation wird ein Minimierungsproblem mit tracking type Zielfunktion und einem System von partiellen Differentialgleichungen als Nebenbedingungen verwendet. Es werden Ergebnisse für die Identifikation der wichtigsten Parameter in der Radiofrequenz Ablation sowie für die hochintensive fokussierte Ultraschall-Therapie gezeigt.

 

"Hot or Not?" - Was wissen wir über den Klimawandel?

Dienstag, 27. März 2012, 17:15 Uhr, A 213

Prof. Dr. Manfred Kottcke, GSO-Hochschule Nürnberg

Der Prozess einer fortschreitenden Erwärmung der Erdoberfläche in den letzten ca. 40 Jahren ist mittlerweile durch zahlreiche Messdaten gesicherte wissenschaftliche Erkenntnis. Welche Auswirkungen diese Erwärmung auf andere klimatische Parameter hat, ist allerdings noch sehr viel unsicherer und Gegenstand intensiver Forschung. Darüber hinaus stellt sich die Frage, ob bzw. zu welchem Anteil die Erwärmung auf anthropogene Ursachen zurückzuführen ist und in welcher Art die Menschheit auf diesen Prozess reagieren sollte. Der Vortrag versucht den Stand der gegenwärtigen wissenschaftlichen Kenntnis wiederzugeben und leitet zur Debatte um mögliche Konsequenzen hin.

 

Winterersemester 2011/12

 

Mathematische Grundlagen der Linearen Systemtheorie und Diskreten Signalverarbeitung ---  Welche zeitinvarianten linearen Systeme lassen sich als Faltungsoperatoren darstellen?

Dienstag, 13. Dezember 2011, 17.15 Uhr, Hörsaal E 105 in der Wassertorstraße

Prof. Dr. Rolf Brigola, GSO-Hochschule Nürnberg

 

Sommersemester 2011

 

Wozu braucht man Vektorrechnung bei der Datenübertragung ?

Dienstag, 7. Juni 2011, 16 Uhr, Hörsaal E 013 in der Wassertorstraße

Prof. Dr. Henrik Schulze, FH Südwestfalen

 

Variationsmethoden in der Bildverarbeitung

Donnerstag, 19. Mai 2011, 16 Uhr, Hörsaal E 014 in der Wassertorstraße

Prof. Dr. Peter Singer, FH Ingolstadt

 

Copyright © Fakultät AMP

 

Bachelorstudiengang

Vermittlung von journalistischer und technischer Kompetenz

Fremdsprachen und Interkulturelle Kompetenz an der Technischen Hochschule Nürnberg

Schwerpunkte in Maschinen-bau,Elektrotechnik oder Naturwissenschaft/Technik