Bericht zufolge haben die meisten befragten Weißenhüte ChatGPT in der Web3-Sicherheit verwendet und festgestellt, dass es Potenzial hat. Sie äußerten jedoch Bedenken hinsichtlich der Fähigkeit von ChatGPT, Sicherheitslücken zu identifizieren, so ein Bericht der Bug-Bounty- und Sicherheitsdiensteplattform Immunefi.
OpenAI hat seinen KI-Chatbot ChatGPT im November 2022 veröffentlicht. Innerhalb von zwei Monaten erreichte er 100 Millionen Benutzer – doch mit zunehmender Benutzerzahl wuchsen auch Bedenken hinsichtlich Sicherheit, Datenschutz und Ethik.
An der Umfrage von Immunefi aus dem Monat Mai 2023 nahmen 165 der aktivsten Weißenhüte in der Web3-Sicherheitsgemeinschaft teil, wie die Plattform Cryptonews berichtet. Der neu veröffentlichte „ChatGPT Security Report“ wurde im Juni erstellt.
Laut dem Bericht ist die Verwendung von ChatGPT bei Weißenhüten relativ hoch. 76,4% der Befragten haben die Technologie genutzt, während 36,7% sie in ihren täglichen Arbeitsablauf integriert haben.
Was die Anwendungsfälle betrifft, gaben 74% der Befragten an, dass die neuartige Technologie am besten für Bildungszwecke geeignet ist.
Der Bericht stellt jedoch fest:
„Während die Community Smart Contract Auditing [60,6%] und Vulnerability Discovery [46,7%] als spezielle Anwendungsfälle betrachtet, wurden gleichzeitig die am häufigsten genannten Bedenken begrenzte Genauigkeit bei der Identifizierung von Sicherheitslücken [64,2%], mangelndes domänenspezifisches Wissen [61,2%] und Schwierigkeiten bei der Bewältigung von Audits im großen Maßstab [61,2%] genannt.“
Laut dem Bericht haben 76,4% der Weißenhüte ChatGPT für Sicherheitspraktiken verwendet.
In Bezug auf ihr Vertrauen in die Fähigkeit von ChatGPT, Web3-Sicherheitslücken zu identifizieren, gaben 35% an, dass sie mäßig zuversichtlich waren, 29% waren etwas zuversichtlich und 26% waren nicht zuversichtlich.
52% der Befragten gaben an, dass die allgemeine Verwendung von ChatGPT Sicherheitsbedenken birgt, darunter Phishing, Betrug, Social Engineering sowie die Entwicklung von Ransomware und Malware.
Die Mehrheit, nämlich 75%, sagte, dass ChatGPT das Potenzial hat, die Web3-Sicherheitsforschung zu verbessern, jedoch weitere Feinabstimmung und Schulung erforderlich sind.
Dennoch würden die meisten (68%) ihren Kollegen ChatGPT als Werkzeug für Web3-Sicherheit empfehlen.
ChatGPT-generierte Fehlerberichte ähneln Spam
Immunefi gibt an, über 60 Milliarden Dollar an Benutzerfonds geschützt und insgesamt über 75 Millionen Dollar an Prämien ausgezahlt zu haben. Darüber hinaus stehen über 154 Millionen Dollar an verfügbaren Prämien noch zur Verfügung.
Nach der Veröffentlichung von ChatGPT erhielt die Plattform „eine Flut“ von Fehlerberichten. Obwohl sie gut geschrieben waren, waren die darin enthaltenen Behauptungen „unsinnig“ und bezogen sich auf nicht vorhandene Funktionen oder verwirrende Programmierkonzepte.
„Bisher wurde durch einen ChatGPT-generierten Fehlerbericht, der über Immunefi eingereicht wurde, keine einzige reale Sicherheitslücke entdeckt.“
Daher handelte es sich bei diesen Berichten um Spam. Sie wurden von Personen ohne Sicherheitskenntnisse eingereicht, die „hofften, dass die Suche nach Web3-Softwarefehlern genauso einfach wäre wie das Eingeben einiger ChatGPT-Prompts“.
Immunefi hat eine neue Regel eingeführt, um Accounts, die ChatGPT-generierte Berichte einreichen, permanent zu sperren.
Interessanterweise wurden 21% der von Immunefi gesperrten Konten aufgrund dieser Art von Fehlerbericht eingereicht.
Quelle: Immunefi, ChatGPT Security Report