Wem man im Internet vertrauen soll


Die Suchmaschinen und Empfehlungssysteme haben einen großen Einfluss darauf, welche Posts und Dokumente von Personen gesehen werden
Glaubwürdigkeit lässt sich anhand verschiedener Kriterien beurteilen - Besseres Glaubwürdigkeitsmodell finden und Experimente damit machen



In einem vom Wissenschaftsfonds FWF geförderten Projekt wurde untersucht, wie sich Glaubwürdigkeit von Informationen aus dem Netz bewerten lässt, um damit effektiver Daten aus Plattformen wie Flickr und Co zu gewinnen. Das Thema Glaubwürdigkeit von Informationen aus dem Internet hat zuletzt durch die politische Dimension von Fake News und ihrem Einfluss auf demokratische Prozesse große Brisanz erlangt. Die Schwierigkeit für Internet-Unternehmen wie Facebook, das besonders mit der Thematik konfrontiert ist, besteht in ihrer Abhängigkeit von Computermethoden zur Auswahl von Inhalten. Der Erfolg des Internet beruht wesentlich auf der automatisierten Verarbeitung von Information: Algorithmen, nicht Menschen bestimmen, welche Ergebnisse von Suchmaschinen angezeigt werden. Im Bereich von Fake News fehlt es dafür aber an geeigneten Methoden.

Die Wahrheit, betont man bei Facebook, sei oft besonders schwierig zu identifizieren. Die Beurteilung von Glaubwürdigkeit hingegen scheint möglich und war das Thema eines vom Wissenschaftsfonds FWF geförderten internationalen Forschungsprojekts unter der Leitung von Allan Hanbury von der Technischen Universität (TU) Wien. "Wir haben gesehen, dass die Glaubwürdigkeit von Online-Inhalten bisher nicht klar definiert war", sagt Hanbury. "Unser Ziel war, ein besseres Glaubwürdigkeitsmodell zu finden und Experimente damit zu machen."

Glaubwürdigkeit lasse sich anhand verschiedener Kriterien beurteilen, erklärt Hanbury. Manche haben mit der Quelle der Information zu tun. Verfügt die Quelle über Expertise in diesem Bereich? Genießt sie Vertrauen? Andere Kriterien drehen sich um die Information selbst. Wie hoch ist die Qualität der Information? Hier geht es etwa um Tippfehler in Dokumenten. Wie hoch ist ihre Zuverlässigkeit? Gemeint ist, wie stark die Qualität der von einer bestimmten Quelle stammenden Information variiert.

Glaubwürdigkeit von Bildern und Suchmaschine
Hanburys Team nahm die Suche nach Bildern in sozialen Medien unter die Lupe, speziell in Flickr. Die Idee war, das "Tagging", also die Benennung oder Etikettierung von Bildern zu betrachten, und ihre Glaubwürdigkeit zu beurteilen. Solche Tags können "Wasser", "Berg" oder "Strand" lauten. Ein Algorithmus bewertet die Glaubwürdigkeit der Tags nach verschiedenen Kriterien, etwa anhand der Begleittexte, aber auch daran, wie regelmäßig eine Nutzerin oder ein Nutzer postet und wie viele Bilder sie oder er online hat, ohne den Inhalt der Bilder selbst zu analysieren. Diese Informationen fließen in ein Programm, das versucht, Bilder mit den richtigen Tags zu versehen.

Dabei ließ sich zeigen, dass ein mit Glaubwürdigkeitskriterien arbeitender Algorithmus sehr verlässlich die richtigen Tags zu bestimmten Bildern findet. Mit der Berücksichtigung von Glaubwürdigkeitskriterien lässt sich so die Effektivität automatisierter Informationsgewinnung im Internet erhöhen. Das zu zeigen war eines der Ziele des Projekts. Neuland betrat das Projektteam mit dem Versuch, nicht nur die Glaubwürdigkeit von Inhalten zu analysieren, sondern auch jene von Systemen, die Informationen sammeln.
"Die Suchmaschinen und Empfehlungssysteme haben einen großen Einfluss darauf, welche Posts und Dokumente von Personen gesehen werden", sagt Hanbury. Sie können Ergebnisse nach Relevanz ordnen, aber auch bezahlte Inhalte höher reihen. "Wir haben uns angesehen, ob es möglich ist, die Glaubwürdigkeit von Suchmaschinen zu beurteilen." Diese Fragestellung wurde im Rahmen des Projekts erstmals untersucht und stellte sich als sehr schwierig heraus. Denn ohne Kenntnisse über die Programmierung der Suchmaschine sei das fast nicht möglich, räumt Hanbury ein.

Gesundheit im Netz
Falschinformationen sind nicht nur bei politischen Themen besonders heikel, sondern beispielsweise auch bei medizinischen Inhalten. "Menschen, die an langwierigen Erkrankungen leiden, informieren sich oft ausführlich darüber im Internet und werden mit der Zeit selbst zu Experten", erklärt Allan Hanbury. Manchmal seien gerade top-gereihte Inhalte Falschinformationen, wo mit der Hoffnung und Verzweiflung der Menschen Geschäfte gemacht würden, gibt der Wissenschafter zu bedenken. Die Organisation "Health On the Net" (HON) beschäftigt sich bereits seit 1995 mit dem Phänomen und kämpft für die Qualität medizinischer Online-Information, ist allerdings mit der Menge an Information überfordert. "Eine händische Bewertung ist nicht mehr möglich." In einer Zusammenarbeit mit HON testeten die Forscherinnen und Forscher der TU Wien die in dem Projekt entwickelten automatisierten Methoden zur Bewertung der Glaubwürdigkeit. "Der Rahmen, den wir aufgebaut haben, kann künftig verwendet werden, um Glaubwürdigkeit zu messen", betont Hanbury.

Zur Person
Allan Hanbury forscht als Gruppenleiter für "Information and Software Engineering" (ifs) an der Technischen Universität Wien. Seine Forschungsinteressen sind Datenwissenschaft, Informationsgewinnung und die Evaluation von Informationsgewinnungssystemen und Algorithmen. Er ist Koordinator verschiedener EU-Projekte und österreichischer Forschungsprojekte.
(Wissenschaftsfonds FWF: ra)

eingetragen: 04.03.17
Home & Newsletterlauf: 03.04.17

Wissenschaftsfonds FWF: Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • Datenschutz als Innovations-Bremse

    Mehr als zwei Drittel der Unternehmen in Deutschland fühlen sich vom Datenschutz ausgebremst. 70 Prozent haben bereits mindestens einmal Pläne für Innovationen aufgrund von Datenschutz-Vorgaben oder Unsicherheiten bei der Anwendung des geltenden Rechts gestoppt. Vor einem Jahr lag der Anteil noch bei 61 Prozent. Aktuell sagen wie im Vorjahr 17 Prozent, dass sie einmal auf Innovationspläne verzichtet haben. Bei 35 Prozent war das dagegen bereits mehrfach der Fall (2024: 27 Prozent) und bei 18 Prozent sogar häufig (2024: 17 Prozent). Das sind Ergebnisse einer repräsentativen Befragung von 605 Unternehmen ab 20 Beschäftigten in Deutschland im Auftrag des Digitalverbands Bitkom.

  • Gefahr von Cyberattacken

    IT-Verantwortliche bewerten das Risiko, dass ihr Unternehmen Opfer einer Cyberattacke wird, so hoch wie nie zuvor: Fast sieben von zehn Befragten (69 Prozent) befürchten laut einer aktuellen EY-Studie Hackerangriffe und bewerten die Gefahr dabei als "eher hoch" bis "sehr hoch". Besonders große Sorgen machen sich die Befragten in den Bereichen Technologie, Medien und Telekommunikation (82 Prozent), Energie und Metallverarbeitung (80 Prozent), Pharma und Gesundheit sowie Bau und Immobilien (jeweils 71 Prozent).

  • Revolution in der Fertigung

    NTT Data stellte die Ergebnisse ihrer neuesten Studie vor. Die Daten zeigen, dass Fertigungsunternehmen beim Einsatz von GenAI zwar vor einigen Hürden stehen, die Technologie aber das Potenzial hat, ein ganz neues Niveau an Effizienz und Innovationskraft hervorzubringen. Neben den vielen Anwendungsbereichen von GenAI untersuchte die Studie "Von der Fertigungshalle ins KI-Zeitalter: Haben Sie einen Masterplan oder Nachholbedarf?" auch die Herausforderungen, denen sich das produzierende Gewerbe gegenübersieht.

  • Drei Viertel lassen KI-Chancen liegen

    Ob zur Qualitätskontrolle, Automatisierung, Energieeinsparung oder Steuerung von Robotern - die Anwendungsmöglichkeiten für Künstliche Intelligenz in der Produktion sind zahlreich. Mit Blick auf die deutsche Industrie zeigt sich aber: Nur einem Viertel der Unternehmen gelingt es nach eigener Einschätzung bereits gut, die Potenziale von KI zu nutzen (24 Prozent). Das sind Ergebnisse einer repräsentativen Befragung im Auftrag des Digitalverbands Bitkom, die unter 552 Industrieunternehmen des verarbeitenden Gewerbes ab 100 Beschäftigten in Deutschland durchgeführt wurde. Die übrigen drei Viertel sehen sich noch nicht imstande, entsprechende Möglichkeiten auszuschöpfen (72 Prozent).

  • Lösungsansätze gegen den GenAI-Gender Gap

    Frauen drohen bei Künstlicher Intelligenz (KI), die bis 2030 allein in Deutschland 3 Millionen Jobs verändern könnte, ins Hintertreffen zu geraten. So zeigen aktuelle Zahlen von Coursera, dass lediglich 27 Prozent der Lernenden in Generative-AI (GenAI)-Kursen in Deutschland (102.000 Einschreibungen) weiblich sind. Dies liegt noch unter dem weltweiten Durchschnitt von 32 Prozent und reicht im Ländervergleich gerade für einen Platz in den Top-Ten (Platz 9). Und das, obwohl sich allein auf Coursera im vergangenen Jahr weltweit alle 10 Sekunden jemand in einen GenAI-Kurs einschrieb.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen