Haben Sie Kopfschmerzen oder handelt es sich um eine Nebenhöhlenentzündung? Wie sieht eine Ermüdungsfraktur aus? Sollten Sie sich über Schmerzen in der Brust Sorgen machen? Wenn Sie jetzt bei Google nach diesen Fragen suchen, werden die Antworten möglicherweise von künstlicher Intelligenz geschrieben.
Im Mai führte Google eine neue Funktion namens AI Overviews ein, die generative KI nutzt, eine Art maschinelle Lerntechnologie, die auf Informationen aus dem gesamten Internet trainiert und innerhalb von Sekunden Konversationsantworten auf einige Suchfragen liefert.
In den Wochen seit der Einführung des Tools sind Benutzer auf eine Vielzahl von Ungenauigkeiten und bizarren Antworten zu verschiedenen Themen gestoßen. Später schien das Unternehmen die Funktion für einige Suchvorgänge zurückgesetzt zu haben, um diese Fehler zu reduzieren.
Wenn es um KI-Antworten auf Gesundheitsfragen geht, steht laut Experten besonders viel auf dem Spiel. Diese Technologie kann Menschen zu gesunden Gewohnheiten oder zur notwendigen medizinischen Versorgung führen, birgt aber auch das Potenzial, ungenaue Informationen zu liefern. Künstliche Intelligenz kann manchmal Fakten erfinden. Wenn ihre Antworten auf Websites basieren, die nicht wissenschaftlich fundiert sind, können sie Ratschläge geben, die im Widerspruch zu medizinischem Rat stehen oder ein Risiko für die Gesundheit einer Person darstellen.
Es hat sich bereits gezeigt, dass das System schlechte Antworten liefert, die scheinbar auf fehlerhaften Quellen basieren. Auf die Frage „Wie viele Steine soll ich essen?“ forderte AI Overviews beispielsweise einige Benutzer auf, mindestens einen Stein pro Tag zu essen, um Vitamine und Mineralien zu erhalten. (Hinweis kopiert von Zwiebelnsatirische Seite.)
„Man kann nicht allem vertrauen, was man liest“, sagte Dr. Karandeep Singh, Chief Health AI Officer bei UC San Diego Health. Im Gesundheitsbereich sei Ihre Informationsquelle von entscheidender Bedeutung, sagte er.
Gesundheitssuchen haben „zusätzliche Leitplanken“, sagte Hema Buddaraju, Direktorin für Produktmanagement bei Google, die die Arbeit an der KI-Übersicht leitet, lehnte es jedoch ab, diese im Detail zu beschreiben. Suchanfragen, die als schwerwiegend oder explizit gelten oder darauf hinweisen, dass sich jemand in einer verletzlichen Situation befindet, wie etwa Selbstverletzung, lösen keine KI-Zusammenfassungen aus, sagte sie.
Google lehnte es ab, eine detaillierte Liste von Websites bereitzustellen, die die Informationen in AI Overviews unterstützen, sagte jedoch, dass das Tool in Verbindung mit … funktioniert. Google Knowledge Graphein bestehendes Informationssystem, das Milliarden von Fakten aus Hunderten von Quellen extrahierte.
Neue Forschungsantworten identifizieren einige Quellen; Bei Gesundheitsfragen sind dies häufig Websites wie die Mayo Clinic, WebMD, die Weltgesundheitsorganisation und das wissenschaftliche Forschungszentrum PubMed. Die Liste ist jedoch nicht vollständig: Das Tool kann auch auf Wikipedia, Blogbeiträge, Reddit und E-Commerce-Websites zugreifen. Den Benutzern wird nicht mitgeteilt, welche Fakten aus welchen Quellen stammen.
Anhand eines Standardsuchergebnisses können viele Benutzer sofort den Unterschied zwischen einer seriösen medizinischen Website und einem Süßwarenunternehmen erkennen. Aber ein einzelner Textblock, der Informationen aus mehreren Quellen kombiniert, kann Verwirrung stiften.
„Das heißt, wenn die Leute auf die Quelle schauen“, sagte Dr. Seema Yasmin, Direktorin der Health Communications Initiative an der Stanford University. „Ich weiß nicht, ob die Leute hinschauen oder ob wir sie wirklich ausreichend aufgeklärt haben.“ Zum Anschauen“, sagte sie Ihre eigene Forschung Aufgrund der Fehlinformationen wurde das Interesse des durchschnittlichen Benutzers, über die schnelle Antwort hinauszuschauen, pessimistisch.
Was die Richtigkeit der Schokoladenantwort angeht, sagte Dr. Dariush Mozaffarian, Kardiologe und Professor für Medizin an der Tufts University, dass sie einige Fakten enthält, die größtenteils richtig sind, und dass sie die Forschung zu den gesundheitlichen Vorteilen von Schokolade zusammenfasst. Aber er sagte, er unterscheide nicht zwischen starken Beweisen aus randomisierten Studien und schwächeren Beweisen aus Beobachtungsstudien und mache auch keine Vorbehalte bezüglich der Beweise.
Dr. Mozaffarian sagte: Es stimmt, dass Schokolade Antioxidantien enthält. Aber die Behauptung, dass Schokoladenkonsum dabei helfen kann, Gedächtnisverlust vorzubeugen? Dies sei nicht eindeutig bewiesen, sagte er und „bedarf großer Warnung“. Wenn man solche Behauptungen nebeneinander auflistet, entsteht der Eindruck, dass einige davon besser begründet seien, als sie tatsächlich sind.
Antworten können sich auch ändern, wenn sich die KI selbst weiterentwickelt, selbst wenn sich die Wissenschaft hinter einer bestimmten Antwort nicht ändert.
Ein Google-Sprecher sagte in einer Erklärung, dass das Unternehmen daran gearbeitet habe, bei Bedarf Haftungsausschlüsse in den Antworten anzuzeigen, einschließlich des Hinweises, dass die Informationen nicht als medizinischer Rat behandelt werden sollten.
Es ist nicht klar, wie genau AI Overviews die Beweiskraft bewertet oder ob es widersprüchliche Forschungsergebnisse berücksichtigt, beispielsweise solche, ob Kaffee gut für Sie ist. „Wissenschaft besteht nicht aus einer Reihe fester Fakten“, sagte Dr. Yasmin. Sie und andere Experten fragten sich auch, ob sich das Tool auf alte wissenschaftliche Erkenntnisse stützen würde, die inzwischen widerlegt wurden, oder ob es nicht die neuesten Erkenntnisse zu einem Problem erfasst.
„In der Lage zu sein, eine kritische Entscheidung zu treffen – die Qualität von Quellen zu differenzieren – ist das, was Menschen ständig tun, und es ist das, was Ärzte tun“, sagte Dr. Danielle Peterman, Ärztin und Wissenschaftlerin für künstliche Intelligenz am Dana-Farber Cancer Institute Brigham. Und Frauenkrankenhaus. „Sie analysieren die Beweise.“
Wenn wir wollen, dass Tools wie AI Overviews diese Rolle spielen, sagte sie, „müssen wir besser verstehen, wie man durch verschiedene Quellen navigiert und wie man eine kritische Linse anwendet, um zu einer Zusammenfassung zu gelangen.“
Diese Unbekannten seien besorgniserregend, sagten Experten, da das neue System eine KI-Übersichtsantwort auf einzelne Links zu seriösen medizinischen Websites wie denen der Mayo Clinic und der Cleveland Clinic auslöst. Solche Websites stehen in der Vergangenheit bei vielen Gesundheitssuchen ganz oben.
Ein Google-Sprecher sagte, dass AI Overviews Informationen, die in den Top-Suchergebnissen erscheinen, abgleichen oder zusammenfassen, aber nicht dazu gedacht sind, diese Inhalte zu ersetzen. Stattdessen, so der Sprecher, seien sie dazu gedacht, den Menschen die Navigation durch die verfügbaren Informationen zu erleichtern.
Die Mayo Clinic lehnte es ab, sich zu den neuen Antworten zu äußern. Ein Vertreter der Cleveland Clinic sagte, Menschen, die Gesundheitsinformationen suchen, sollten „direkt nach bekannten und vertrauenswürdigen Quellen suchen“ und sich bei Symptomen an ihren Arzt wenden.
Ein Vertreter von Scripps Health, einem in Kalifornien ansässigen Gesundheitssystem, das in einigen AI-Übersichtszusammenfassungen zitiert wird, sagte in einer Erklärung, dass „Zitate in von Google AI generierten Antworten nützlich sein können, weil sie Scripps Health zu einer vertrauenswürdigen Quelle für Gesundheitsinformationen machen.“ .
Der Vertreter fügte jedoch hinzu: „Wir haben Bedenken, dass wir für KI-produzierte Inhalte nicht in der gleichen Weise bürgen können wie für unsere eigenen Inhalte, die von unseren medizinischen Fachkräften überprüft werden.“
Experten sagten, dass es bei medizinischen Fragen nicht nur auf die Genauigkeit der Antwort ankommt, sondern auch darauf, wie sie den Benutzern präsentiert wird. Stellen Sie sich die Frage „Habe ich einen Herzinfarkt?“ Die KI-Antwort enthielt eine nützliche Zusammenfassung der Symptome, sagte Dr. Richard Gumina, Direktor für Herz-Kreislauf-Medizin am Wexner Medical Center der Ohio State University.
Aber er fügte hinzu, dass er eine lange Liste von Symptomen lesen musste, bevor ihm in der SMS empfohlen wurde, 911 anzurufen. Dr. Gumina suchte auch nach „Habe ich einen Schlaganfall?“ Um zu sehen, ob das Tool eine dringlichere Reaktion hervorrufen könnte, forderte es die Benutzer in der ersten Leitung auf, die Notrufnummer 911 anzurufen. Er sagte, er würde Patienten mit Symptomen eines Herzinfarkts oder Schlaganfalls sofort raten, Hilfe zu suchen.
Experten forderten Menschen, die nach Gesundheitsinformationen suchen, dazu auf, neue Antworten mit Vorsicht zu genießen. Im Wesentlichen, so sagten sie, sollten Benutzer die feineren Details unter einigen Antworten zur KI-Übersicht beachten: „Dies dient nur zu Informationszwecken. Für medizinischen Rat oder eine Diagnose wenden Sie sich an einen Fachmann. Generative KI ist experimentell.“
Danny Bloom Hat zu Berichten beigetragen.
„Webspezialist. Lebenslanger Zombie-Experte. Kaffee-Ninja. Hipster-freundlicher Analyst.“
More Stories
Die nächste 4K-Minidrohne von DJI passt in Ihre Handfläche
Leaks enthüllen den Namen und das Design des angeblichen PS5 Pro-Geräts
Apple führt mit dem neuesten iOS-Update die KI-Objektentfernung in Fotos ein