Zusammenfassung: Eine neue Studie zeigt, dass das Gehirn der Erinnerung an schwer zu interpretierende Bilder Priorität einräumt. Mithilfe eines Computermodells und Verhaltensexperimenten zeigten die Forscher, dass Szenen, die für das Modell schwieriger zu rekonstruieren waren, den Teilnehmern besser im Gedächtnis blieben.
Dieser Befund hilft zu erklären, warum bestimmte visuelle Erlebnisse in unserem Gedächtnis bleiben. Die Studie könnte auch bei der Entwicklung von Speichersystemen mit künstlicher Intelligenz helfen.
Wichtige Fakten:
- Speicherkonfiguration: Das Gehirn neigt dazu, sich Bilder zu merken, die schwer zu erklären oder zu interpretieren sind.
- Rechenmodell: Es wurde ein Modell verwendet, das die Komprimierung und Rekonstruktion visueller Signale übernimmt.
- Auswirkungen künstlicher Intelligenz: Erkenntnisse können dazu beitragen, effizientere Speichersysteme für künstliche Intelligenz zu schaffen.
Quelle: Yale
Der menschliche Geist filtert einen Strom von Erfahrungen, um spezifische Erinnerungen zu schaffen. Warum werden manche Erfahrungen in dieser Flut an Sinnesinformationen „einprägsam“, während das Gehirn das meiste davon ignoriert?
Ein von Wissenschaftlern der Yale University entwickeltes Rechenmodell und eine Verhaltensstudie weisen auf neue Beweise für diese alte Frage hin, berichten sie in der Zeitschrift. Die Natur des menschlichen Verhaltens.
„Der Geist legt Wert darauf, sich an Dinge zu erinnern, die er nicht gut erklären kann“, sagte İlker Yildirim, Assistenzprofessor für Psychologie am College of Arts and Sciences der Yale University und leitender Autor der Studie. „Wenn die Szene erwartet und nicht überraschend ist, kann sie ignoriert werden.“
Beispielsweise könnte eine Person durch die Anwesenheit eines Hydranten in einer abgelegenen natürlichen Umgebung kurzzeitig verwirrt sein, wodurch das Bild schwer zu interpretieren und daher uneinprägsam wird. „Unsere Studie ging der Frage nach, welche visuellen Informationen erinnert werden können, indem wir ein Computermodell der Szenenkomplexität mit einer Verhaltensstudie kombinierten“, sagte Yildirim.
Für die von Yildirim und John Lafferty, John C. Malone-Professor für Statistik und Datenwissenschaft an der Yale University, geleitete Studie entwickelten die Forscher ein Rechenmodell, das zwei Schritte der Gedächtnisbildung berücksichtigte – Komprimierung und Rekonstruktion visueller Hinweise.
Basierend auf diesem Paradigma entwarfen sie eine Reihe von Experimenten, bei denen Menschen gefragt wurden, ob sie sich an bestimmte Bilder aus einer Reihe von natürlichen Bildern erinnern, die in schneller Folge präsentiert wurden. Das Yale-Team stellte fest, dass die Wahrscheinlichkeit, dass sich die Teilnehmer an das Bild erinnern, umso größer ist, je schwieriger es für das Computermodell ist, das Bild zu rekonstruieren.
„Wir haben das KI-Modell verwendet, um zu versuchen, Licht auf die Wahrnehmung von Szenen durch Menschen zu werfen, und dieses Verständnis könnte dazu beitragen, in Zukunft effizientere KI-Speichersysteme zu entwickeln“, sagte Lafferty, der auch Direktor des Center for Neural Computing ist. und Maschinenintelligenz am Wu Tsai Institute der Yale University.
Die ehemaligen Yale-Absolventen Chi Lin (Psychologie) und Zifan Lin (Statistik und Datenwissenschaft) sind Erstautoren dieser Arbeit.
Über diese Neuigkeiten zur visuellen Gedächtnisforschung
Autor: Bill Hathaway
Quelle: Yale
Kommunikation: Bill Hathaway – Yale
Bild: Bildquelle: Neuroscience News
Ursprüngliche Suche: Geschlossener Zugang.
„Bilder mit schwer rekonstruierbaren visuellen Darstellungen hinterlassen stärkere Spuren im Gedächtnis„Von İlker Yildirim et al. Die Natur des menschlichen Verhaltens
eine Zusammenfassung
Bilder mit schwer rekonstruierbaren visuellen Darstellungen hinterlassen stärkere Spuren im Gedächtnis
Vieles von dem, woran wir uns erinnern, beruht nicht auf einer bewussten Entscheidung, sondern ist einfach ein Nebenprodukt der Wahrnehmung.
Dies wirft eine grundlegende Frage zur Struktur des Geistes auf: Wie interagiert die Wahrnehmung mit dem Gedächtnis und beeinflusst es?
Inspiriert durch den klassischen Vorschlag, die Wahrnehmungsverarbeitung mit der Robustheit des Gedächtnisses (Level-of-Processing-Theorie) zu verknüpfen, stellen wir hier ein spärliches Kodierungsmodell zur Komprimierung von Bildeinbettungsmerkmalen vor und zeigen, dass Rekonstruktionsreste aus diesem Modell vorhersagen, wie gut Bilder im Speicher kodiert sind.
Anhand eines offenen, einprägsamen Datensatzes von Szenenbildern zeigen wir, dass Rekonstruktionsfehler nicht nur die Speichergenauigkeit, sondern auch die Antwortlatenz beim Abruf erklären, einschließlich im letzteren Fall der gesamten Varianz, die durch robuste Nur-Vision-Modelle erklärt wird. Wir bestätigen die Vorhersage dieser Darstellung auch durch „modellbasierte Psychophysik“.
Diese Arbeit identifiziert Rekonstruktionsfehler als ein wichtiges Signal, das Wahrnehmung und Gedächtnis verbindet, möglicherweise durch adaptive Modulation der kognitiven Verarbeitung.
More Stories
Wann starten die Astronauten?
Fossilien zufolge wurde eine prähistorische Seekuh von einem Krokodil und einem Hai gefressen
Die Federal Aviation Administration fordert eine Untersuchung des Misserfolgs bei der Landung der Falcon-9-Rakete von SpaceX