(Please find an English version below!)
Der Lehrstuhl für Verifikation und formale Garantien des maschinellen Lernens an der Informatik-Fakultät der TU Dortmund sucht mehrere hochmotivierte und talentierte Doktorandinnen und Doktoranden. Die Promotionsstellen sind in Vollzeit zu besetzen (Teilzeit ist möglich), werden nach TV-L E13 bezahlt (ca. 50.000 Euro brutto, je nach Erfahrung) und beinhalten ein umfassendes Leistungspaket (Krankenversicherung, Altersvorsorge, etc.). Außergewöhnlich qualifizierte Bewerber für Postdoc-Stellen können ebenfalls berücksichtigt werden.
Unsere Forschung konzentriert sich auf die Entwicklung formaler Methoden zur Gewährleistung der Robustheit, Zuverlässigkeit und Sicherheit moderner KI-Systeme. Als erfolgreicher Kandidat oder erfolgreiche Kandidatin werden u. A. folgende Themen zu Ihren Aufgaben gehören:
* Der Entwurf von Algorithmen, die Korrektheits-, Sicherheits- oder Vertrauenswürdigkeitszertifikate für das maschinelle Lernen unter verschiedenen Annahmen oder Benchmarks liefern.
* Die Entwicklung sicherer Methoden des maschinellen Lernens, insbesondere für das Reinforcement-Learning, die nachprüfbare Garantien bieten, Erklärbarkeit und Transparenz berücksichtigen oder Unsicherheiten und unzuverlässige Eingaben einbeziehen können.
Die Promotionsstellen sind am Zentrum für Trustworthy Data Science and Security (rc-trust.ai) angesiedelt und bieten einzigartige Möglichkeiten zur interdisziplinären Forschung im Schnitt von Informatik, Statistik, IT-Sicherheit und Psychologie. Kandidaten mit Erfahrung in formalen Methoden (z. B. Logik, Automated-Reasoning oder Constraint-Solving) sind besonders angehalten, sich zu bewerben.
Weitere Informationen finden Sie unter https://static.rc-trust.ai/Open-PhD-Positions-RC-Trust.pdf. Bewerbungen werden entgegengenommen, bis die Stellen besetzt sind. Für weitere Fragen wenden Sie sich bitte an Prof. Daniel Neider (daniel.neider@tu-dortmund.de).
===== English version =====
The Chair for Verification and Formal Guarantees of Machine Learning at the Computer Science Faculty of TU Dortmund University (Germany) is recruiting several highly-motivated and talented Ph.D. students. The positions are full-time (part-time is possible), competitively paid according to the TV-L E13 wage scale (about 50,000 Euros gross, depending on experience), and include a comprehensive benefits package (healthcare, unemployment, retirement, etc.). Exceptionally qualified applicants for postdoc positions may be considered as well.
Our research focuses on developing formal methods for ensuring the robustness, reliability, and safety of modern AI-enabled systems. As a successful candidate, your key responsibilities include but are not limited to:
* Designing algorithms that provide certificates of correctness, safety, or trustworthiness for machine learning models under different assumptions or benchmarks.
* Developing safe machine learning methods, specifically for reinforcement learning, that achieve verifiable guarantees for safety and performance metrics, address explainability and transparency concerns, or account for uncertainty and unreliable inputs.
The positions are co-located at the Center for Trustworthy Data Science and Security (rc-trust.ai) and provide unique interdisciplinary training opportunities with researchers from computer science, statistics, IT security, and psychology. Candidates with a strong background in formal methods (e.g., logic, automated reasoning, or constraint solving) are particularly encouraged to apply.
More information can be found at https://static.rc-trust.ai/Open-PhD-Positions-RC-Trust.pdf. Applications will be reviewed until the positions are filled. For further questions, please get in touch with Prof. Daniel Neider (daniel.neider@tu-dortmund.de).