Ein künstliches Intelligenzmodell mit dem Namen ForeSight wurde über die medizinischen Daten von 57 Millionen Menschen geschult, die den englischen nationalen Gesundheitswesen verwendet haben. Wissenschaftler . Die Initiative, angeführt von Forschern wie Chris Tomlinson UCLs Institut für Gesundheitsinformatik und King’s College London King’s College London repräsentiert das, was seine Erstellungs-Health-Health-Mid-Mid-Mid-Hunde-Hing-Health-Health-Häuser-Merkmals-Mid-Mid-Hunde-Health-Ai-Model nutzen. November 2018 und Dezember 2023. Entwickler schlagen vor, dass Voraussicht Ärzten letztendlich helfen könnte, Krankheitskomplikationen vor ihrem Auftreten vorherzusagen und ein entscheidendes Fenster für frühzeitige Interventionen anzubieten, und könnte auch breitere Gesundheitstrends wie Krankenhausaufenthaltsraten prognostizieren.

Eine frühere Version von Foresight entwickelt in 2023 verwendet Opena-GPT-3-Data und A-Daten aus zwei Londoner, aus Two London Hospitals. Praktisch die gesamte Bevölkerung Englands hat bei anderen Forschern und Anwälten für Datenschutz erhebliche Datenschutz-und Datenschutzbedenken ausgerichtet. Während Entwickler vor der Verwendung darauf bestanden, dass Aufzeichnungen „de-identifiziert“ wurden, warnen Experten, dass der inhärente Reichtum großer Datensätze die Reduktionsrisiken gut dokumentiert macht. target=”_ leer”> gemäß dem neuen Wissenschaftler . Die Entwickler selbst erkennen an, dass es keine Garantie gibt, dass das System sensible Patienteninformationen nicht versehentlich entlarvt. Außerdem macht es unglaublich schwierig, anonymisieren zu können, was darauf hindeutet, dass solche Modelle für einen sicheren Gebrauch unter strenger NHS-Kontrolle bleiben sollten. Michael Chapman von NHS Digital, der die Daten für die Voraussicht überwachte, räumte ein, dass zwar direkte Kennungen entfernt werden, was eine absolute Sicherheit gegen die Neuidentifikation mit reichhaltigen Gesundheitsdaten darstellt.

Transparenz und Benutzerkontrolle sind ebenfalls zentrale Streitpunkte. Caroline Green an der Universität von Oxford Caroline Green stellte fest, dass die Verwendung eines so großen Datensatzes, ohne dass Individuen das öffentliche Vertrauen schwach, das öffentliche Vertrauen schwach. Sie erklärte:”Auch wenn es anonymisiert wird, ist es etwas, das die Menschen aus ethischer Sicht sehr stark fühlen, weil die Menschen normalerweise die Kontrolle über ihre Daten behalten wollen und sie wissen wollen, wohin es geht.”Sie sagte:”Es gibt ein Problem bei der KI-Entwicklung, bei der die Ethik und die Menschen eher ein zweiter Gedanke als der Ausgangspunkt sind.” 

Derzeit bestehende Opt-out-Mechanismen medconefidential , eine britische Datenschutzorganisation für Datenschutz, diese”Covid-Only-AI”enthält wahrscheinlich eingebettete Patientendaten, die das Labor nicht verlassen sollten. Labor”, betonte, dass Patienten die Kontrolle über die Verwendung ihrer Daten behalten sollten. Er fügte hinzu, dass”Patienten die Kontrolle darüber haben sollten, wie ihre Daten verwendet werden”. 

yves-alexandre de montoye Am Imperial College London hob London hervor, dass das Test, ob Models das Merkmal von Schulungsdaten in Betracht gezogen haben. > Potenzielle Vorteile und staatliche Ambitionen

Trotz der Datenschutzbedenken betonen Befürworter das Potenzial von KI-ähnlichen Voraussicht, die Gesundheitsversorgung zu verändern. Gesundheitssekretär Wes Streeting unterstützt die Nutzung dieser Technologie, um unnötige Krankenhausbesuche zu reduzieren, die Diagnose zu beschleunigen und die Ressourcen der Mitarbeiter zu freien. Peter Kyle, Sekretär für Wissenschaft und Technologie, unterstützt das Projekt auch und betrachtet es als einen Schritt in Richtung einer „Gesundheitsrevolution“ und eines Teils des britischen Regierungsplans für Veränderungen. Kyle stellte fest, dass diese ehrgeizige Forschung zeigt, wie KI, gepaart mit den sicheren und anonymisierten Daten des NHS, eine Gesundheitsrevolution entsperren soll

NHS England National Director von Transformation Vin Diwakar unterstützt KI, das auf große Datensätze für vorbeugende Versorgung geschult wurde. Diwakar sagte: „AI hat das Potenzial, die Verhinderung und Behandlung von Krankheiten zu ändern, insbesondere wenn sie in großen Datensätzen trainiert haben.“. Das Modell, das Daten von 1997 bis 2018 analysiert, zielt darauf ab, über 700 Gesundheitszustände bis zu fünf Jahre im Voraus vorherzusagen. Eine Studie, die in Lancet Digital Health in 2024 -Schitnern, die zukünftigen Erkrankungen aufweisen, und Chanciern, die zu einem Schaden, das zu sein hatte, aufgewiesen hatte, und Chanciern, die auf Verstöße gegen die Longing-Störungen, und die Erkennung von Störungen, und Chanciern, die zu den Long-Störungen, in Bezug auf das Magen, und das Aufwand, und die Forssight-For-For-For-For-For-For-For-For-For-for—Typ-2-Diabetes. Die Forscher hoffen, laut Richard Dobson umfangreichere Datenquellen wie Anmerkungen, Blutuntersuchungen und Scans der Kliniker in zukünftige Iterationen einzubeziehen. Meta wurde beispielsweise von Aufsichtsbehörden wie dem ICO und der ICO und der IRISH Data Protection Commission (DPC) über die Verwendung öffentlich zugänglicher britischer Social-Media-Daten für die KI-Schulung Meta konfrontiert. 

In ähnlicher Weise reichte der Datenschutzwächter NoyB GDPR-Beschwerden gegen XAI über die mutmaßliche Verwendung personenbezogener Daten von Millionen von EU-Nutzern ein, um sein GROK-AI-Modell ohne ordnungsgemäße Zustimmung zu schulen, was zu einem vorübergehenden Stillstand in der Verarbeitung durch Irlands DPC führt. Microsoft Research in Zusammenarbeit mit der University of Washington und Providence enthüllte kürzlich BiomedParse, ein KI-Modell zur Verbesserung der medizinischen Bildanalyse. 

Dieses Modell, das OpenAs GPT-4 verwendete, um einen großen Datensatz zu synthetisieren. Adhärenz. In der Zwischenzeit veröffentlichte Pariser Startup-Biopimus sein H-optimus-0-Pathologie-Modell für Pathologie, das auf einer großen Sammlung histopathologischer Folien ausgebildet wurde, mit dem Ziel, die Diagnose der Krankheit und die medizinische Forschung zu verbessern. href=”https://www.omu.ac.jp/en/info/research-news/entry-81524.html” target=”_blank”>Osaka Metropolitan University published in der Natur fand heraus, dass die diagnostische Genauigkeit der generativen KI mit nicht spezialisierten Ärzten vergleichbar ist. Es ist und ursprünglich aus der Health Foundation Health Foundation-Blog. Aufgaben. Vertrauen bleibt jedoch ein Problem, insbesondere bei älteren Erwachsenen, die eine Benachrichtigung über die Datennutzung wünschen. Es wird gesammelt, wenn Probleme bereits vorhanden sind.