ISACA & (ISC)2 Konferenz 2025

Unsere ganztägige Konferenz, die wir mit unseren Kolleg:innen von (ISC)² Austria Chapter veranstalteten, stand unter dem Motto "Cyber Resilience und Artificial Intelligence".

Was haben NETFLIX, DEEP FAKES, RESILIENCE, AI ACT, 3-GÄNGE HIRN, MENTALE FIREWALL, ÖLFÖRDERUNG und BUCHSTABENSUPPE gemeinsam?

Antworten auf diese Frage und Erklärungen dazu lieferten unsere Sprecher:innen und Expert:innen im Zuge ihrer sehr interessanten, tiefgründigen und launigen Vorträgen. Sie lieferten Updates zu Neuerungen und Entwicklungen im Bereich Cyber Resilience und Artificial Intelligence und skizzierten positive sowie negative Auswirkungen der AI-Entwicklungen und -Anwendungen auf unsere Gesellschaft, auf Unternehmen, auf unser Arbeitsumfeld sowie auf jeden einzelnen Menschen.

Hätten wir Tickets für die Konferenz verkauft so wären wir ausverkauft gewesen. Knapp 200 Mitglieder von ISACA Austria und  (ISC)2 Austria verfolgten interessiert den Vorträgen und teilten Ihre Erfahrungen mit AI untereinander aus.

Unser herzliches Dankeschön gilt unserem Gastgeber A1 Telekom Austria sowie unseren Sponsoren und Mitgliedern, die durch ihre Sponsor- und Mitgliedsbeiträge erst diese Konferenz möglich gemacht haben.

  

DIE AGENDA! Der Tagesablauf der Konferenz.

UHRZEIT THEMA INHALT  VORTRAGENDE(R)
08:30 Empfang

Empfang und Registrierung der Teilnehmer:innen

Alle Teilnehmer:innen
09:15 Eröffnung der Konferenz Begrüßung durch ISACA Austria Chapter und (ISC)² Austria Chapter Drazen Lukac, Kerstin Heyn-Schaller, ISACA Austria Chapter
Yvonne Poul, (ISC)² Austria Chapter
09:30 Unser Gastgeber A1 Begrüßung und Einführende Worte von A1 Peter Uher
Director Public Sector & Healthcare A1 Telekom Austria
09:45 Forschung

Cybersicherheit und LLMs: Wie Sprachmodelle die Sicherheitslandschaft verändern

Andreas Ekelhart und Sebastian Schrittwieser
SBA Research
10:15 Security Neue Bedrohungsfelder durch den Einsatz von
AI-Systemen/-Technologie
n
Christoph Burger
EY Austria Manager IT Audit
10:45 PAUSE
11:15 Security

Schwache Kundenidentifizierung als Enabler
für Angreifer

Gilbert Wondracek
Group CISO A1

11:45 Security

Large Language Models Prompt Injections
(Vortrag ist ausgefallen, werden wir demnächst im Zuge eines Webcasts nachholen)

Caroline Lawitschka
Research Group Security and Privacy, Universität Wien

12:15 MITTAGSPAUSE
13:30 Forschung

Future Brain @Work – Kollaps im Kopf oder Fokus in der digitalen Flut?

Orell Mielke
Neurologe und Experte für das menschliche Nervensystem

14:30 Big Data

Dashboards, KI und coole Projekte: Mein Weg als Data Scientist im SOC

Jacqueline Berger
SOC Data Scientist by RBI

15:00 PAUSE
15:30 Human Impact

Human in Control: Securing Compliance and Responsibility in the Age of AI

Carina Zehetmaier
Woman in AI Austria, CEO von pAlper

16:00 Recht und Compliance

Regulierung wohin kein Auge mehr reicht – oder: Sicherheit durch die Buchstabensuppe?!

Max W. Mosing und Juliane Messner
Geistwert Rechtsanwälte
16:30 Abschluss der Konferenz Abschließende Worte und Verabschiedung durch ISACA Austria Chapter und (ISC)² Austria Chapter Drazen Lukac, Kerstin Heyn-Schaller, ISACA Austria Chapter
Yvonne Poul, (ISC)² Austria Chapter
16:45  Come Together Come together, social networking, gemütlicher Ausklang der Konferenz bei Drinks und Snacks Alle Teilnehmer:innen

Unsere Sprecher:innen, unsere Expert:innen!

Die Vorträge!
Inhaltsangabe, Informationen zum(r) Vortragenden sowie Foliensatz (Handouts) soweit freigegeben.

********************

Gilbert Wondracek:

Group CISO bei A1

*************************

Titel: Schwache Kundenidentifizierung als Enabler für Angreifer und zukünftiger Impact durch AI

Abstract: Nach einer Betrugswelle haben wir Schwächen im Zusammenspiel zwischen Business, IT und Security identifiziert und an einem realen Beispiel veranschaulicht. Wir zeigen die potentiellen Auswirkungen durch aktuelle Entwicklungen und Trends in AI für Angreifer und Verteidiger auf.

Zur Person: Als Group CISO bei A1 ist Gilbert Wondracek maßgeblich an der Entwicklung und Gestaltung der Sicherheit für mehreren Telekommunikationsunternehmen beteiligt. In der Vergangenheit hat er Cybersicherheitsteams bei zwei Big-4-Unternehmen geleitet, war akademischer Security Researcher und Universitätslektor.

********************

Christoph Burger:

Manager Technology Risks by EY

*************************

Titel: Neue Bedrohungsfelder durch den Einsatz von AI-Systemen/-Technologien

Abstract: Mit dem zunehmenden Einsatz von Künstlicher Intelligenz (KI) in verschiedenen Bereichen eröffnen sich nicht nur neue Möglichkeiten, sondern auch bislang wenig bekannte Bedrohungsfelder. Dabei sind nicht nur Organisationen betroffen, die KI selbst einsetzen. Im Vortrag werden die praktischen Herausforderungen und mögliche Gefahren, mit einem besonderen Fokus auf Deep Fakes beleuchtet. Wir stellen eine Übersicht dar, wie Angriffe wie Deep Fakes, Model-Inversion und Prompt Injection Unternehmen und ihre Daten gefährden können. Anhand einer realen Fallstudie wird die Dynamik eines Deep-Fake-Angriffs analysiert und illustriert, welche Konsequenzen daraus resultieren und welche Abwehrstrategien erfolgreich angewendet werden können. Abschließend zeigen wir, wie Trustworthy AI durch technische Lösungen und robuste Schutzmaßnahmen gestärkt werden kann, um Risiken zu minimieren und Organisationen widerstandsfähiger zu machen.

Zur Person: Christoph Burger hat Wirtschaftsinformatik studiert und verfügt über langjährige Erfahrung im IT-Audit und IT-Risikomanagement. Als Manager bei EY ist er mitverantwortlich für den Bereich Trustworthy AI. Sein Schwerpunkt liegt dabei insbesondere auf KI-spezifische Risiken und Strategien zur Stärkung vertrauenswürdiger KI-Systeme. Er bringt fundiertes Wissen über IT-Risiko Management und System-Bewertungen mit und verbindet dieses mit seinen Erfahrungen im Bereich von künstlicher Intelligenz.

Handouts: Christoph_Burger.pdf

********************

Andreas Ekelhart & Sebastian Schrittwieser:

Senior Researcher by SBA Research

*************************

Titel: Cybersicherheit und LLMs: Wie Sprachmodelle die Sicherheitslandschaft verändern

Abstract: Die rasanten Fortschritte bei Large Language Models (LLMs) revolutionieren zunehmend unterschiedlichste Bereiche und gewinnen auch in der Cybersicherheit an Bedeutung. Dieser Vortrag gibt einen Überblick über das Potential von LLMs für sicherheitsrelevante Aufgaben, basierend auf dem aktuellen Stand der Forschung. Der Schwerpunkt liegt sowohl auf defensiven Anwendungen wie sichere Softwareentwicklung und Penetrationstests, als auch auf offensiven Szenarien, einschließlich Desinformation, Social Engineering und Malware. Darüber hinaus werden wir die Risiken und Herausforderungen, die mit dem Einsatz von LLMs in der Cybersicherheit verbunden sind, beleuchten und mögliche Strategien zur Risikominderung und Absicherung diskutieren.

Zu den Vortragenden: Andreas Ekelhart ist Senior Researcher an der Universität Wien in der Forschungsgruppe Security & Privacy und Mitglied des Management Boards von SBA Research. Er hat an der TU Wien seinen PhD in Computer Science erworben und forscht derzeit im Bereich semantische Technologien und Machine Learning für Informationssicherheit. Sebastian Schrittwieser forscht als Senior Scientist in der Forschungsgruppe Security & Privacy an der Universität Wien und ist Leiter des Christian Doppler Labors für Sicherheit und Transparenz im Softwareschutz. Weiters ist er Key Researcher bei SBA Research. Er hat 2014 an der TU Wien seinen Doktor in Computer Science erworben.

Handouts: Andreas_Ekelhart___Sebastian_Schrittwieser.pdf


********************

Orell Mielke:

Neurologe in der klinischen Forschung, Speaker, Autor

*************************

Titel: Future Brain @Work – Kollaps im Kopf oder Fokus in der digitalen Flut?

Abstract: Wie bleibt unser Gehirn fit in einer Welt voller KI, digitalem Wandel und Schnelligkeit? Dr. Orell Mielke, der Hirn-Doc, zeigt in seiner Keynote Future Brain @Work, wie wir neurobiologische Erkenntnisse nutzen können, um klarer zu denken, Entscheidungen besser zu treffen und ein Umfeld zu schaffen, in dem Teams produktiv und stressfrei arbeiten können.

Zur Person: Orell Mielke ist ein renommierter Neurologe und Experte für das menschliche Nervensystem. Mit seiner einzigartigen Kombination aus neurologischer Fachkompetenz und langjähriger Erfahrung als Führungskraft entführt Dr. Mielke sein Publikum in die Welt der Neurowissenschaften. Er vermittelt humorvoll und verständlich wie neurochemische Prozesse unsere Arbeitsweise beeinflussen können und wie Führungskräfte dieses Wissen gezielt nutzen, um Motivation und Produktivität zu steigern, Stress abzubauen und eine kreative Firmenkultur zu fördern.

Handouts: Orell_Mielke.pdf

********************

Jacqueline Berger:

SOC Data Scientist by RBI

*************************

Titel: Dashboards, KI und coole Projekte: Mein Weg als Data Scientist im SOC

Abstract: Wie riesige Dashboards mich verzaubert haben, warum ‘binäre Klassifikation von Risikoalarmen’ nicht der Titel dieses Talks geworden ist, warum ChatGPT mein bester Freund in den ersten Tagen als Data Scientist in einem SOC war und über das Gefühl, richtig cooles Zeug zu machen. In meinem Talk spreche ich über meine Erfahrungen als Data Scientist im SOC, darüber, wie wir KI in der Cybersecurity nutzen und wie es mit dem aktuellen MVP läuft, bei dem wir KI-unterstützt Alerts klassifizieren wollen, damit sich die SOC Analysten vermehrt um Aufgaben kümmern können, bei denen HI - Human Intelligenz gebraucht wird.

Zur Person: Jacqueline Berger ist Data Scientist in einem Security Operation Center in Wien. Als Quereinsteigerin hat sie kürzlich mit Auszeichnung ihr Studium der Informatik, mit Spezialisierung auf Data Science abgeschlossen. Sie setzt sich leidenschaftlich dafür ein, Daten für Entscheidungsprozesse zu nutzen, und plädiert für Diversität in der Tech-Branche. Sie ist aktives Mitglied bei Women in AI-Austria und derzeit in der Funktion als Vienna Lead tätig.

********************

Carina Zehetmaier:

Woman in AI Austria, CEO von pAlper

*************************

Titel: Human in Control: Securing Compliance and Responsibility in the Age of AI

Abstract: Dieser Vortrag zeigt, wie Organisationen durch ein gezieltes Impact Assessment die sozialen, ethischen und rechtlichen Auswirkungen von KI frühzeitig erkennen und steuern können. Mit Fokus auf Risikomanagement, Dokumentationspflichten und den Anforderungen des EU AI Act wird erläutert, wie Compliance sichergestellt und Vertrauen - als Schlüssel zum Erfolg - geschaffen werden kann. Erfahren Sie, warum der Mensch als Kontrollinstanz unverzichtbar ist, um Risiken zu minimieren und Verantwortung in der Ära der KI klar zu definieren.

Zur Person: Mit über 10 Jahren Erfahrung in den Bereichen Menschenrechte, Recht, Diplomatie und künstliche Intelligenz ist Carina Zehetmaier eine Hauptrednerin über die Auswirkungen von KI auf Menschlichkeit, Gesellschaft und Wirtschaft. Als Mitbegründerin von aiLands und pAIper.one hilft sie Organisationen sicherzustellen, dass ihre KI-Systeme vertrauenswürdig, ethisch und im Einklang mit ihren Werten und gesetzlichen Verpflichtungen sind. Sie ist außerdem Mitglied des österreichischen KI-Beirats und Präsidentin von Women in AI Austria.

********************

Juliane Messner und Max W. Mosing:

Rechtsanwälte

*************************

Titel: Regulierung wohin kein Auge mehr reicht – oder: Sicherheit durch die Buchstabensuppe?!

Abstract: GDPR, AI-Act, NIS2, CRA … all diese „EU-Gesetze“ wollen unsere Informationsgesellschaft schützen, insbesondere auch vor Angriffen mit AI! Umgekehrt legen die „EU-Gesetze“ die Grenzen für den Einsatz von AI für die Abwehr von (potentiellen) Cyberangriffen fest. Der Vortrag nähert sich daher dem Thema „Bedrohungen durch die AI bzw. Unterstützung bei der Cyber Security Abwehr durch AI“ aus der Sicht des EU-Gesetzgebers und Rechtanwenders.

Zu den Vortragenden: Juliane Messner und Max W. Mosing sind Gründungspartner der auf Geistiges Eigentum, IT und Technologie spezialisierten Rechtsanwaltskanzlei GEISTWERT Rechtsanwälte. Sie sind erfahrene und anerkannte Spezialisten im Feld des geistigen Eigentums und seinen benachbarten Gebieten.

Handouts: Max_Mosing___Juliane_Messner.pdf

Für den Inhalt verantwortlich: Information Systems Audit and Control Austria – Verein für IT- Governance, IT-Revision und IT-Kontrolle (ISACA Austria) - Postanschrift: Wagramer Straße 19 / IZD-Tower, 1220 Wien, Österreich - eMail: office@isaca.at
Die Veranstalter behalten sich vor, Änderungen an der Agenda und am Konferenzablauf jederzeit ohne vorherige Bekanntgabe durchzuführen.