6 KI-Sicherheitsrichtlinien für Gesundheitsorganisationen

Um KI in Krankenhäusern zu sichern , empfiehlt Pete Johnson, CTO für Künstliche Intelligenz bei CDW , eine interne Lösung, die es Klinikern und anderen Mitarbeitern ermöglicht, mit einer KI-Chat-App zu experimentieren, ohne Daten öffentlich zugänglich zu machen. Organisationen können auch mit einem öffentlichen Modell arbeiten, das über die entsprechenden Datenschutzmaßnahmen verfügt.
„Alle drei großen Hyperscaler – Amazon , Microsoft undGoogle – haben in ihren Datenschutzvereinbarungen festgelegt, dass sie Ihre Eingabeaufforderungsinhalte nicht zum Trainieren von Modellen verwenden“, sagt Johnson. „Auf diese Weise sind Sie geschützt, auch wenn Sie das KI-Programm nicht vor Ort haben. Wenn Sie es in der Cloud nutzen, garantiert die Datenschutzvereinbarung, dass Ihre Daten nicht zum Trainieren von Modellen verwendet werden.“
2. Erstellen Sie einen Aktionsplan für den Fall eines AngriffsEin Aktionsplan sollte detailliert beschreiben, was zu tun ist, wenn es zu einem Datenverstoß kommt oder im Zuge eines Finanzbetrugsversuchs eine Massen -Phishing-E-Mail in Umlauf kommt.
„Es ist unglaublich wichtig für IT-Experten, genau zu verstehen, welche neuen Angriffsflächen es gibt und wie sie aussehen. Dann müssen sie ein Framework entwickeln, um diese Angriffsflächen zu bekämpfen“, sagt Hawking. „Dazu gehört alles – die Hardware, die Software und die eigentliche IT-Architektur – aber auch die geltenden Richtlinien und Vorschriften zur Bewältigung dieser Probleme.“
3. Machen Sie kleine Schritte zur KI-ImplementierungWenn Gesundheitsorganisationen mit KI experimentieren, sollten sie klein anfangen. Beispielsweise können sie Ambient Listening und intelligente Dokumentation nutzen, um die Belastung von Ärzten und Klinikpersonal zu verringern.
„Stellen Sie nicht Ihren gesamten Datenbestand einem KI-Bot zur Verfügung. Geben Sie stattdessen genau an, welche Probleme Sie lösen möchten“, rät Johnson.
4. Verwenden Sie Organisationskonten mit KI-ToolsHawking warnt vor der Verwendung persönlicher E-Mail-Konten, um zu vermeiden, dass Einstiegspunkte für den Datenaustausch geschaffen werden, die zum Trainieren von Modellen ohne Zustimmung verwendet werden könnten.
5. Prüfen Sie KI-Tools, egal wo sie eingesetzt werdenHawking empfiehlt außerdem, dass Organisationen ein Aufsichtsteam zur Überprüfung von KI-Tools einrichten. Dieses Team könnte Interessenvertreter wie die IT-Abteilung, Kliniker und sogar Patientenvertreter umfassen.
„Das bedeutet nicht, die gesamte KI zu sperren, sondern genau zu verstehen, was verwendet wird und warum es verwendet wird“, sagt Hawking.
ALS NÄCHSTES: KI-Datenverwaltungsstrategien, die Ihnen zum Erfolg verhelfen.
6. Führen Sie eine vollständige Risikobewertung und ein vollständiges Audit durchEine gründliche Risikobewertung ermöglicht es Organisationen im Gesundheitswesen, Risiken im Zusammenhang mit der Einhaltung gesetzlicher Vorschriften zu erkennen und Richtlinien und Verfahren für den Einsatz generativer KI zu entwickeln.
„Im Rahmen eines KI-Audits ist es wirklich wichtig, einen umfassenden Überblick darüber zu erhalten, wie all diese Dinge ablaufen“, sagt Hawking. „Das ist der Ausgangspunkt für eine gute Governance.“
healthtechmagazine