Gemäss einer 2022 veröffentlichten Studie glauben Menschen, die den «Leitmedien» misstrauen, eher einer künstlichen Intelligenz.
d
Personen, die kritisch gegenüber den «Leitmedien» eingestellt sind, vertrauen eher der künstlichen Intelligenz. - zVg

Das Wichtigste in Kürze

  • Menschen, die den «Leitmedien» misstrauen, vertrauen eher einer künstlichen Intelligenz.
  • Vertrauen ist ein Schlüsselfaktor für die Akzeptanz von künstlicher Intelligenz.
  • Informationskompetenz ist entscheidend, um die Grenzen und Risiken von KI zu erkennen.
Ad

Die Studie untersuchte die individuellen Unterschiede der Menschen in Bezug auf das Vertrauen in andere Menschen. Dabei interessierte die Forscher insbesondere, ob vorhergesagt werden kann, wie gross die Skepsis gegenüber künstlicher Intelligenz ist. Zudem wurde untersucht, welche politische Ideologie die Personen haben.

Nutzer, die anderen Menschen misstrauen, sind tendenziell positiver gegenüber Maschinen eingestellt. Dies verdeutlicht die Bedeutung von Vertrauen bei der Art und Weise, wie Menschen auf KI-Systeme reagieren.

Konservative Nutzer vertrauen KI eher

Studienautor S. Shyam Sundar vermutet, dass diese positive Einstellung gegenüber Maschinen individueller Vorstellungen entspringt. Diese Nutzer berufen sich auf die Vorstellung, dass Maschinen genau, objektiv und frei von ideologischen Vorurteilen sind.

Studienautor S. Shyam Sundar. Er ist Professor und Co-Direktor des Penn State’s Media Effects Research Laboratory. - zVg

Die Forscher fanden heraus, dass Nutzer mit konservativer politischer Ideologie eher einer künstlichen Intelligenz als den «Leitmedien» vertrauten. Sundar führt dies auf ein Misstrauen gegenüber den traditionellen Medien wie auch gegenüber den Social Media-Unternehmen zurück.

Misstrauen gegenüber KI

Die Studie ergab auch, dass «Power-User», also erfahrene Nutzer von Informationstechnologie, die entgegengesetzte Tendenz haben. Sie vertrauten der künstlichen Intelligenz weniger. Sie glauben, dass Maschinen nicht die Fähigkeit haben, Nuancen der menschlichen Sprache zu erkennen.

Eine Studie von KPMG ergab, dass nur etwa ein Viertel der Befragten in fünf Ländern bereit war, künstlicher Intelligenz im Allgemeinen zu vertrauen. Sie zeigte auch, dass die meisten Befragten hohe Standards an den Einsatz von künstlicher Intelligenz in Unternehmen legen. Diese Ergebnisse deuten darauf hin, dass Vertrauen ein wichtiger Faktor bei der Akzeptanz von künstlicher Intelligenz ist.

Die Forscher um Sundar sagen, dass ihre Ergebnisse dazu beitragen könnten, die zukünftige Akzeptanz von KI zu beeinflussen. Durch die Entwicklung von Systemen, die auf den Benutzer zugeschnitten sind, könnten die Designer Skepsis und Misstrauen abbauen und ein angemessenes Vertrauen in KI aufbauen.

Informationskompetenz als Schlüsselqualifikation

Die Studie zeigt, wie wichtig es ist, Informationskompetenz zu fördern. Informationskompetenz ist die Fähigkeit, mit Informationen selbstbestimmt, souverän, verantwortlich und zielgerichtet umzugehen. Dazu gehört auch, die Quellen, die Qualität und die Glaubwürdigkeit von Informationen zu beurteilen.

Informationskompetenz ermöglicht es den Nutzern, nicht nur die Vorteile, sondern auch die Grenzen und Risiken von künstlicher Intelligenz zu erkennen. Sie hilft ihnen, kritisch zu hinterfragen, wie KI-Systeme funktionieren, insbesondere mit welchen Daten sie gefüttert werden.

Informationskompetenz stärkt auch die Fähigkeit, eigene Informationen zu erstellen, zu teilen und zu nutzen. Dies ist eine wichtige Voraussetzung für die aktive Teilhabe an der Informationsgesellschaft beitragen. Informationskompetenz ist daher eine Schlüsselqualifikation für das lebenslange Lernen und die berufliche Entwicklung.

Ad
Ad

Mehr zum Thema:

InformationskompetenzMaschinenStudieDatenKPMG