Cybersecurity vs. Cybercrime Generative KI und Ethical Hacking für verantwortungsvollen Fortschritt

Von Ira Zahorsky Lesedauer: 2 min |

Anbieter zum Thema

Künstliche Intelligenz kann riesige Datenmengen schnell analysieren und korrelieren. Sie bietet sich also unter anderem dazu an, Cyberbedrohungen rasch aufzuspüren. Umgekehrt wird Künstliche Intelligenz aber auch von Cyberkriminellen genutzt.

Wie hängen generative KI und Hacking zusammen?
Wie hängen generative KI und Hacking zusammen?
(Bild: michagehtraus - stock.adobe.com)

Hacker haben bislang ein eher negatives Image, denn oft wird der Begriff als Synonym für Cyberkriminelle genutzt. Doch immer mehr Unternehmen wissen das Knowhow und die kreativen Fähigkeiten von Hackern zu schätzen, sodass die „Bösen“ zu Ethical Hackers werden. „Mehr Hacker treten aus dem Schatten ihrer Stereotypen heraus, um neu zu definieren, wie Hacking als Karriereweg aussieht“, erklärt Dave Gerry, CEO bei Bugcrowd. Das US-amerikanische Unternehmen bezeichnet sich selbst als Multi-Solution-Crowdsourced-Cybersecurity-Plattform und beschäftigt sich jährlich im Rahmen der Studie „Inside the Mind of a Hacker“ mit dem aktuellen Stand des Hackings. Ein Fokus im Bericht von 2023 sind die Auswirkungen von Künstlicher Intelligenz (KI) auf die Sicherheit.

Einsatzmöglichkeiten

Die Einsatzmöglichkeiten von Künstlicher Intelligenz haben sich mit generativer KI wie ChatGPT, Google Bard und Bing Chat AI nochmals deutlich erweitert. Den weltweit rund 1.000 Befragten zufolge wird sie hauptsächlich zur Automatisierung, Datenanalyse und Identifizierung von Schwachstellen genutzt (s. Bildergalerie). Persönlich nutzen zahlreiche Befragte Chatbots als Inspiration für das Schreiben von unliebsamen Berichten.

Bildergalerie

Dass diese Technologie sowohl für Ethical Hacking als auch für die Sicherheitsforschung großes Potenzial hat, ist unbestritten. Gut die Hälfte der Befragten glaubt auch, dass generative KI die Fähigkeiten von Hackern bereits jetzt (21 %) oder in den nächsten fünf Jahren (34 %) übertreffen kann. Auch die Art und Weise der Arbeit von Hackern, beispielsweise bei Pentests, wird sich in den kommenden fünf Jahren verändern, sind 78 Prozent überzeugt. Kreativer als ein menschlicher Hacker wird die KI allerdings nach Meinung von 72 Prozent nicht.

Gefahren

Aber auch für Cyberkriminelle stellt die KI ein Hilfsmittel dar. Dem World Economic Forum zufolge sind die fünf Hauptrisiken:

  • Programmierung von ausgereifterer Malware
  • Erstellen personalisierter Phishing-Mails
  • Generieren von Deep Fakes
  • Knacken von Captchas und Passwörtern
  • Sabotieren von Cybersecurity-Systemen

27 Prozent der Befragten glauben, dass weniger als 10 Prozent der Unternehmen ihr wahres Cybersecurity-Risiko kennen. Ein Drittel gab an, dass sich 10 bis 25 Prozent der Unternehmen der Gefahren bewusst sind. Nur 16 Prozent der Studienteilnehmer denken, dass mehr als die Hälfte der Unternehmen die Bedrohung exakt beurteilen kann.

Nach der Einschätzung der globalen Bedrohungslage gefragt, antworteten 84 Prozent, dass es seit Beginn der Corona-Pandemie mehr Schwachstellen gibt und punktuelle Sicherheitstests nicht ausreichen würden, um die Unternehmenssicherheit umfassend zu gewährleisten (88 %). Auf der anderen Seite sind 78 Prozent davon überzeugt, das es schwieriger wird, ein Unternehmen anzugreifen. Auch das Bild der ethischen Hacker ändert sich nach Einschätzung von 89 Prozent der Befragten in Unternehmen zum Positiven.

Für die Studie wurden rund 1.000 Befragungen durchgeführt. Der Großteil (75 %) stammt aus der APAC-Region, 20 Prozent aus EMEA und 5 Prozent aus Nord-/Südamerika.

(ID:49621019)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung