#Neuroinformatik
Explore tagged Tumblr posts
blog-for-communications · 11 months ago
Text
Tumblr media
Erinnerungen Vinson Tan Pixabay
Erinnerungen speichern, ohne alte zu zerstören
Der erste Schultag: das erste Betreten des Klassenraums, das Kribbeln im Bauch und die Freude über die Schultüte – typische Beispiele für Erinnerungen aus dem episodischen Gedächtnis. Es speichert einmalige persönliche Erlebnisse zeitlich und räumlich geordnet ab und verknüpft sie mit subjektiven Erfahrungen. In einer Studie des Instituts für Neuroinformatik der Ruhr-Universität Bochum hat ein Team um Prof. Dr. Laurenz Wiskott ein neues Computermodell des episodischen Gedächtnisses entwickelt und damit bedeutende Fortschritte in Bezug auf das Verständnis des Hippocampus erzielt – der Region des Gehirns, die für die Bildung neuer episodischer Erinnerungen von entscheidender Bedeutung ist.
Die Arbeit wurde am 20. Juni 2024 in der Fachzeitschrift PLOS ONE veröffentlicht.
Sequenzen zuverlässig speichern, ohne alte Erinnerungen zu zerstören
Das episodische Gedächtnis bildet eine wichtige Grundlage für unsere persönliche Lebensgeschichte. Es hilft uns, unsere Identität zu formen, indem wir vergangene Erfahrungen und Erlebnisse in der richtigen Reihenfolge abspeichern und verknüpfen. „Das geschieht durch Veränderungen in den Verbindungen zwischen den Nervenzellen in unserem Gehirn“, erläutert Laurenz Wiskott. „Ein bisher unerklärtes Phänomen war, wie das menschliche Gehirn zu diesen Veränderungen in der Lage ist, ohne andere Erinnerungen zu vergessen – und das obwohl das Erlebte nur genau einmal gesehen wird und daher nicht langsam und vorsichtig in den Schaltplan der Nervenzellen integriert werden kann.“ Das innovative Computermodell der Bochumer Forschenden ermöglicht, genau diese natürliche Fähigkeit des menschlichen Gehirns nachzustellen: Sequenzen nach einmaliger Präsentation zuverlässig zu speichern, ohne dabei alte Erinnerungen zu zerstören.
Das Modell konzentriert sich auf die Prinzipien der Selbstorganisation im Hippocampus und basiert dabei auf der CRISP-Theorie von Prof. Dr. Sen Cheng, der ebenfalls an der Ruhr-Universität Bochum forscht. Die Abkürzung CRISP steht für Content Representation, Intrinsic Sequences, and Pattern Completion. Das Modell definiert insbesondere die Funktion der sogenannten CA3-Region im Hippocampus neu. „Herkömmlich herrschte die Annahme, dass die Speicherung der episodischen Erinnerungen direkt im CA3-Netzwerk erfolgt“, so Erstautor Dr. Jan Melchior. „Wir nutzen die CA3-Region nun allerdings nur als eine Art Ankerpunkt für das Gedächtnis. Gespeichert wird in den Regionen, die der CA3 vor- und nachgeschaltet sind.“
Ein neuronales Netzwerk wie eine gut organisierte Bibliothek
Um dies zu erreichen, trainierte das Forschungsteam die CA3-Region in seinem Modell mit Vorabinformationen und richtete so, bildlich gesprochen, eine gut organisierte Bibliothek in CA3 ein. „Wenn neue Bücher, also neue Erlebnisse, hinzukommen, muss die Bibliothek nicht komplett neu geordnet werden. Stattdessen werden die neuen Bücher in die vorhandene Struktur eingefügt und mit bestehenden Regalen und Kategorien verknüpft“, so Jan Melchior weiter. Dies spare Zeit und halte die Bibliothek gut organisiert.
Die CA3-Region bleibt im Modell stabil und kann effizient arbeiten, ohne ständig ihre interne Struktur anpassen zu müssen. So werden Verarbeitung und Speicherung der Informationen schneller und zuverlässiger. Die neuronalen Veränderungen im Zuge der Lernprozesse finden ausschließlich in benachbarten Regionen statt.
Die Ergebnisse der Simulation überzeugten die Forschenden. „Überraschend finde ich nach wie vor die Robustheit des Modells“, so Laurenz Wiskott. „Selbst bei unvollständigen oder fehlerhaften Hinweisreizen kann eine einzige Präsentation einer Mustersequenz zuverlässig abgespeichert, erinnert und abgerufen werden.“ „Das Modell funktioniert dabei nicht nur mit künstlich generierten Sequenzen, sondern auch mit handgeschriebenen Ziffern und natürlichen Bildern“, ergänzt Jan Melchior. „Zudem kann es sich ohne zusätzlichen Input selbst verbessern, indem es wiederholt abspielt, was es gelernt hat.“
Projekt ist Teil eines großen Konzepts
Die Studie ist Teil eines größeren Forschungsprojekts mit Fokus auf das episodische Gedächtnis. „Wir gehen davon aus, dass unvollständige persönliche Gedächtnisinhalte und generelles semantisches Wissen einander ergänzen und helfen, plausible Erinnerungen abzurufen – wenn auch nicht immer ganz korrekt“, erklärt Laurenz Wiskott, der bereits seit 2008 in den Bereichen Maschinelles Lernens und Computational Neuroscience an der Ruhr-Universität Bochum forscht und als Principal Investigator im Research Department of Neuroscience tätig ist. Dieses größere Konzept wird derzeit in der Forschungsgruppe 2812 „Szenarien der Vergangenheit: Ein neuer theoretischer Rahmen für das generative episodische Gedächtnis“ erforscht, welche die Deutsche Forschungsgemeinschaft fördert.
Förderung
Die Publikation wurde durch den Sonderforschungsbereich 874 sowie die Forschergruppe 2812 der Deutschen Forschungsgemeinschaft gefördert.
Redaktion: Anke Maes
Originalpublikation:
Jan Melchior, Aya Altamimi, Mehdi Bayati, Sen Cheng, Laurenz Wiskott: A Neural Network Model for Online One-shot Storage of Pattern Sequences, in: PLOS ONE, 2024, DOI: 10.1371/journal.pone.0304076, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0304076
0 notes
bpod-bpod · 5 years ago
Photo
Tumblr media
Mind Control
Our brain cells (neurons) control what we see, what we hear, and how we behave by sending electrical signals to one another. Figure out how to dictate what neurons say to each other and when, and in a sense, you control the brain. Although that may sound like science fiction, this is the basic theory behind a popular tool in neuroscience called optogenetics. Using light and light-sensitive proteins called channelrhodopsins, scientists are able control the electrical signals sent between neurons. For example, optogenetics allows neuroscientists to see what behaviours they can elicit in mice when they stimulate neurons in different parts of the brain. This image shows a specific class of neurons (in green) in the mouse brainstem that scientists were able to activate using light in a recent study. Optogenetics is used in labs around the world to shine a light on how brain cells control our senses and behaviours.
Written by Gaëlle Coullon
Image from work by Zohre Azimi and colleagues
Optical Imaging Group, Institut für Neuroinformatik, Ruhr University Bochum, Bochum, Germany
Image originally published with a Creative Commons Attribution 4.0 International (CC BY 4.0)
Published in eLife, April 2020
You can also follow BPoD on Instagram, Twitter and Facebook
15 notes · View notes
thatisprettysmart · 5 years ago
Text
Mind Control
Our brain cells (neurons) control what we see, what we hear, and how we behave by sending electrical signals to one another. Figure out how to dictate what neurons say to each other and when, and in a sense, you control the brain. Although that may sound like science fiction, this is the basic theory behind a popular tool in neuroscience called optogenetics. Using light and light-sensitive proteins called channelrhodopsins, scientists are able control the electrical signals sent between neurons. For example, optogenetics allows neuroscientists to see what behaviours they can elicit in mice when they stimulate neurons in different parts of the brain. This image shows a specific class of neurons (in green) in the mouse brainstem that scientists were able to activate using light in a recent study. Optogenetics is used in labs around the world to shine a light on how brain cells control our senses and behaviours.
Image from work by Zohre Azimi and colleagues
Optical Imaging Group, Institut für Neuroinformatik, Ruhr University Bochum, Bochum, Germany
Image originally published with a Creative Commons Attribution 4.0 International (CC BY 4.0)
Published in eLife, April 2020
from BPoD - Biomedical Picture of the Day https://ift.tt/2N9phXG
0 notes
mezitli33 · 6 years ago
Text
NEURORACER KOSTENLOS DOWNLOADEN
Spiel macht schlauer Sparx: Wenn Senioren sich nur einige Stunden vor den Bildschirm, setzen fördert das ihre Fähigkeit zum Multitasking massiv. FC Bayern gegen Liverpool: Zusammen mit seinen Kollegen von der University of California arbeitet der Forscher noch an vier weiteren Computerspielen, die jeweils verschiedene Fähigkeiten im Gehirn ansprechen sollen. Kombiniert man „Project Evo“ mit Neuromodulation beziehungsweise Neurofeedback, lassen sich so das Gehirn des Spielers „auslesen“ und die Ergebnisse an das Spiel zurückgeben. Diese Verbesserung hielt über ein halbes Jahr an, und das ohne weiteres Training.
Name: neuroracer Format: ZIP-Archiv Betriebssysteme: Windows, Mac, Android, iOS Lizenz: Nur zur personlichen verwendung Größe: 16.36 MBytes
Die Arbeitsgruppe Neuroinformatik der Universität Osnabrück forscht zu den Gebieten maschinelles Lernen und intelligente autonome Systeme. Adam Gazzaley vermutet, dass es einen gemeinsamen Kern der geistigen Kontrolle gibt, der ihnen allen zugrunde liegt. Im Jeuroracer des Frontalhirns kam es zu einer Steigerung des Theta-Mittellinienrhythmus und der Theta-Kohärenz, die Elektrophysiologen als Zeichen einer gesteigerten Aufmerksamkeit deuten. Zusätzlich tauchen über dem Auto immer wieder Symbole verschiedener Farben neuroraecr Formen auf – je nach Symbol muss der Spieler eine bestimmte Taste drücken. Schülerproteste gegen Klimapolitik Laute Schüler und sprachlose Bundesregierung.
Hirntraining NeuroRacer steigert kognitive Leistungsfähigkeit
Das fällt Menschen mit zunehmendem Alter schwerer. In den nächsten zehn Jahren will sich Dr. Das gleiche würde vermutlich bei jeder neuroracet Art von stimulierter Aktion passieren, die ein bisschen Hirnaktivität beansprucht, vor allem wenn man sich dafür begeistert und das ganze neu und spannend ist.
Doch frühere Projekte waren nicht sehr erfolgreich: Die mit NeuroRacer erreichten Effekte hätten jedoch auch nach sechs Monaten kaum nachgelassen, berichten die Forscher.
Spiel gegen Depressionen Studie: Selection criteria You can also use the neuroracrr search without entering search terms. Nfuroracer haben Gamekonsolen überhaupt noch eine Zukunft?
youtube
So sehen Sie den Live-Stream. Login loginname Profil bearbeiten Abonnierte Newsletter Abmelden. In unserer Galerie präsentieren wir die besten….
idw – Informationsdienst Wissenschaft
News Events Experts Pictures d e c. Ein Genfer Nueroracer verrät, wie man mit etwas List Leute dazu bringt, ökologischer zu denken und zu handeln.
Research results NO awards, planed studies or tests, speeches, publications or trade fair participations that are based on research results! Kombiniert man „Project Evo“ mit Neuromodulation beziehungsweise Neurofeedback, lassen sich so das Neurogacer des Spielers „auslesen“ und die Ergebnisse an das Spiel zurückgeben.
Der Neurowissenschaftler fordert nicht nur, sondern forscht auch selbst: Adam Gazzaley glaubt nicht, dass älteren Menschen mit jedem beliebigen Computerspiel nneuroracer grauen Zellen zusätzlichen Schwung verleihen können. Das reagiert darauf und kann sich selbst modifizieren, um das Gehirn zu fordern — in Echtzeit.
Gehirn-Training: Videospiel NeuroRacer macht Senioren fit -Video – SPIEGEL ONLINE
Im Alltag hat sie aber keine Probleme. Durch diese Herausforderungen werde die menschliche Tendenz untergraben, in einen Autopilotmodus zu schalten, sagte Gazzaley.
youtube
Die Redaktion auf Twitter Stets neurooracer und aktuell. Effekt hat nichts mit dem Spiel zu tun. Sunrise Bewegung Klimaschutz statt Karriere. Es wäre das einfachste und billigste, das Spiel gratis zur Verfügung zu stellen.
Neuroracsr die Rennspiele für Senioren Anklang finden, wird sich zeigen. Adam Gazzaley vermutet, dass es einen gemeinsamen Kern der geistigen Kontrolle gibt, der ihnen allen zugrunde liegt. Dabei könnten sie proaktiv dagegen vorgehen, indem sie sich ein neues Hobby zulegen: Praktisch, um an der neurroacer Familienfeier den Enkel abzuhängen und die Verwandtschaft zu beeindrucken.
Hirntraining NeuroRacer steigert kognitive Leistungsfähigkeit – SPIEGEL ONLINE
Anschlag in Christchurch „Hass fängt mit Worten an“. Entscheidend ist sicher, dass der NeuroRacer, im Unterschied zu vielen anderen Hirntrainern, ständig passende Herausforderungen in einer komplexen virtuellen Welt bietet. Philo not logy or Psycho and logy.
Chinesisches Investitionsgesetz „Gleichbehandlungsgrundsatz ist das A und O“. Ähnlich wie der Mensch lernt der „NeuroRacer“ aus seinen Fehlern und kann sich so stetig verbessern. Myiasis in Deutschland Maden unter der Haut. Egal ob iPhone oder Android-Smartphone: Aber dabei blieb es nicht: Bitte wählen Sie aus, was Ihnen nicht neuroraacer hat.
The post NEURORACER KOSTENLOS DOWNLOADEN appeared first on Mezitli.
source http://mezitli.info/neuroracer-80/
0 notes
digitaleweltszenarien · 7 years ago
Link
Nach der eher ent- als ermutigenden Personalie Dorothee Bär als Staatsministerin für Digitalisierung, muss der neue Digitalrat die Kompenzlücke der Bunderegierung auf diesem Gebiet schließen, um 5 vor 12 noch die Weichen in Richtung Zukunft stellen zu können. Ist er dazu in der Lage?
“Es sind auf jeden Fall kluge Köpfe in diesem Gremium. Was auffällt, ist natürlich, dass neben Wirtschaft und Wissenschaft zivilgesellschaftliche Perspektiven fehlen. Menschen und Initiativen, die ganz konkret den digitalen Fortschritt in den Dienst von Nachhaltigkeit, Kultur, Emanzipation, Gemeinwohl und Solidarität stellen.” – Ingo Dachwitz, netzpolitik.org Zumindest die Leiterin des neuen Gremiums, Katrin Suder, hat eine Biographie, die auf einen weiteren, vielschichtigeren Blickwinkel hoffen läßt: Nach ihrem Physikstudium in Bochum promovierte sie in Aachen über Neuroinformatik. Dort machte sie auch ihren Bachelor in Literatur- und Theaterwissenschaft. Die parteilose Mittvierzigerin wurde 2010 als erste Frau Direktorin bei McKinsey, wo sie sich mit Diversity Management beschäftigt hat. Sie erarbeitete für die Bundesagentur für Arbeit Reformprojekte, für das Land Berlin eine Konzeption zur Verbesserung der Gründerkultur und war zuletzt Staatssekretärin im Verteidigungsministerium, kündigte dort aber im März diesen Jahres.
Was leider wenig Hoffnung macht, ist die Aussage des Pressesprechers der Bunderegierung zu den Aufgaben des Rates: "die richtigen Fragen stellen, fachlich unterstützen und WO ES SEIN MUSS, AUCH ANTREIBEN". Also bitte, ein Antreiben ist fast überall notwendig! Nimmt man hinzu, dass der Rat nur zweimal jährlich mit Frau Merkel tagen soll, sieht das neue Kind leider schon wieder alt aus...
0 notes
melbynews-blog · 7 years ago
Text
Die geheimnisvolle Innenwelt der künstlichen Intelligenz » Gehirn & KI » SciLogs
Neuer Beitrag veröffentlicht bei https://melby.de/die-geheimnisvolle-innenwelt-der-kuenstlichen-intelligenz-gehirn-ki-scilogs/
Die geheimnisvolle Innenwelt der künstlichen Intelligenz » Gehirn & KI » SciLogs
So fängt’s an: Ein Informatiker programmiert eine Künstliche-Intelligenz-App, startet sie und fragt: „Gibt es Gott?“
Und die App sagt: „Jetzt schon!“
Klar! Nur ein Witz! Doch ein Witz ist nach John Vorhaus Wahrheit und Schmerz, so auch dieser: Künstliche Intelligenz und unsere Angst davor:
„Wie sollen wir uns in einer Welt mit lauter KI-Maschinen fühlen, die wir nicht verstehen?“, fragen sich viele. Wo ist aber das Problem? Täglich begegnest du Tausenden Wesen, die du nicht verstehst. Schon meine Ex-Frau und ich kommen von verschiedenen Planeten: Karin von der Venus und ich aus der Tschechei.
Während meines Chemiestudiums habe ich meinen Wahlpflichtkurs in Quantenmechanik belegt. Statt wie ein braver Student nachts durch Münchner Kneipen zu ziehen, versuchte ich wochenlang, mit der Schrödinger-Gleichung das Wasserstoffatom zu berechnen. Bis ich eine Erleuchtung bekam: Ich riss die Tür unseres Schlafzimmers auf und brüllte: „Ich habe die Schrödinger-Gleichung verstanden!“
„Spinnst du?“, kreischte Karin. „Es ist drei Uhr in der Nacht!“
Glücklich schlüpfte ich ins Bett, um am nächsten Tag wieder unerleuchtet aufzuwachen – meine tiefe Einsicht in die Quantenmechanik und die Wahrscheinlichkeitsdeutung der Wellengleichung war spurlos verschwunden.
Frustriert schlief ich wieder ein. „Viele studieren jahrelang Quantenmechanik, bis sie glauben, sie zu verstehen“, tröstete mich Albert Einstein im Traum. „Sie haben aber nur gelernt, Quantenmechanik zu akzeptieren.“
Von der Quantenmechanik verlangt niemand, dass sie verständlich ist, obwohl ihre Gesetze sich über unser Denken ganz schön lustig machen. Doch künstliche Intelligenz solle gefälligst „ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können“, schreibt die Süddeutsche Zeitung. Warum ist dem so? Weil künstliche Intelligenz direkt am Heiligen Gral unseres Denkens kratzt – dem Denken selbst.
Seit ein künstliches neuronales Netz, AlphaGo der Google-Firma DeepMind, im Jahr 2016 einen der weltbesten Spieler des japanischen Spiels Go Lee Sedol geschlagen hat, ist das Schlagwort „künstliche Intelligenz“ zu einem Medienvirus mutiert – jeden Tag viele Schlagzeilen wert: Auch Angst einflößende: „Wird künstliche Intelligenz uns töten?“, heißt ein Buchtitel.
Doch unsere heutigen Künstliche-Intelligenz-Programme, künstliche neuronale Netze also, sind statistische Optimierungsverfahren zur Muster- und Spracherkennung. Keine Nachkommen des bösartigen Hal 9000 aus „2001: Odyssee im Weltraum“ – keine starke künstliche Intelligenz, die besser als wir denken und eigenes Bewusstsein haben würde. Die gibt es heute nicht einmal theoretisch!
Auch wenn künstliche neuronale Netze nicht ansatzweise so komplex und effizient lernen können wie ein kleines Kind, leisten sie Erstaunliches. Zumindest der Grundidee nach sind sie unserem Gehirn nachgebaut:
Ein dichtes Netz aus miteinander verbundenen Nervenzellen – Neuronen. Im Gehirn werden die vielen Verbindungen zwischen den Neuronen, die Synapsen, gestärkt, wenn wir lernen, reisen, neue Sachen machen, das heißt aktiv sind, und geschwächt, wenn wir mit Bier in der Hand vor dem Fernsehgerät sitzen.
Ähnlich ist es bei einem künstlichen neuronalen Netz: Die einzelnen Verbindungen zwischen den Neuronen bzw. Knotenpunkten darin werden jeweils gestärkt bzw. geschwächt, je nachdem, wie sie zu guten Ergebnissen beim Training des Netzes beitragen:
In die Eingabeschicht des künstlichen Netzes werden Daten eingelesen, zum Beispiel die Pixelwerte eines Bildes – jedem Eingabeneuron wird ein Pixelwert zugewiesen. Diese Pixelwerte werden durch weitere sogenannte versteckte Schichten des Netzes „propagiert“. Aus der Ausgabeschicht kommen dann veränderte Werte heraus.
Aus der Differenz zwischen den Ausgabe-Werten und den richtigen bzw. gewünschten Werten wird der Netzfehler berechnet, mit dem die Verbindungen im Netz neu angepasst bzw. gewichtet werden. Das wird nach jedem Durchlauf von Pixelwerten eines neuen Bildes gemacht, bis der Netzfehler minimal wird.
Oft ist jedes Neuron einer Schicht mit allen Neuronen der zwei benachbarten Schichten verbunden. Die Idee dazu gibt es schon seit 1943. Nur waren unsere Rechner früher so schwach, dass sie mit nur ein paar Schichten rechnen konnten. Deswegen hießen die Programme damals einfach nur neuronale Netze.
Durch die große Rechenleistung moderner Rechner kamen etliche Schichten dazu, und so heißen die Programme jetzt tiefe neuronale Netze. Sonst hat sich nichts geändert. Na, ja, außerdem muss man diese Netze mit großen Datensätzen trainieren.
Ein Kind sieht einen einzigen Hund und erkennt ab da jeden anderen Hund als Hund. Zumal es von seinem ersten Hund, den es gesehen hatte, gebissen wurde. Auch wenn die Hunderasse Xoloitzcuintli heiß, weiß jedes Kind, dass es ein Hund ist.
Ein künstliches neuronales Netz muss dagegen mit Tausenden bis Millionen Hundebildern gefüttert worden sein, um immer einen Hund als Hund zu erkennen. Heutzutage gibt es diese großen Datensätze. Auch mit unseren ganz privaten Daten – die kann man kaufen. Von Facebook zum Beispiel.
China ist schon eine Künstliche-Intelligenz-Weltmacht, weil es in China viel mehr frei zugängliche Personendaten gibt als Datenschutz. 😊
Trotzdem scheinen künstliche neuronale Netze – mit ein paar mathematischen Kniffen beflügelt – zwei grundsätzliche Eigenschaften des menschlichen Gehirns zu besitzen: lernen und generalisieren zu können. Das untrainierte Netz ist ein nach Erfahrung und logischen Überlegungen konstruiertes mathematisches Modell, das trainierte Netz eine Blackbox – wie konnte das künstliche Netz diesen Hund als Hund erkennen, obwohl es den Hund noch nie gesehen hatte?
Deswegen suchen KI-Forscher nach Erklärungen, warum und wie künstliche neuronale Netze so wunderbar Muster in chaotischen Datensammlungen erkennen und Daten klassifizieren können.
Die Theorie des Informationsflaschenhalses (information bottleneck) liefert vielleicht einen guten Ansatz, um unsere „Bildungslücken“ über künstliche neuronale Netze zu schließen. Sie wurde vom Neuroinformatiker Naftali Tishby von der Hebräischen Universität in Jerusalem entwickelt:
Danach können die tiefen neuronalen Netze effizient die Eingabewerte von unwichtigem Ballast befreien. Das tiefe Lernen „drückt“ nur die allgemein gültigen Signale durch den „Flaschenhals“ des neuronalen Netzes, unwichtige Rauschsignale werden herausgefiltert. „Das Wichtigste beim Lernen ist zu vergessen“, sagt Tishby.
Es wird aber auch fleißig experimentiert, um die Blackbox der künstlichen neuronalen Netze zu „entzaubern“: Was passiert in den Netzen beim Lernen? Könnten wir bei der Hirnforschung nicht nur die Struktur solcher Netze sondern auch ein paar Arbeitsmethoden abgucken?, fragten sich vor kurzem die KI-Forscher der Google-Firma Deep Mind.
Hirnforscher konnten ja das Gehirn zuerst „dank“ seinen Verletzungen erforschen: Wie ändert sich die Funktion des Gehirns, wenn kleine Teile davon verletzt werden und nicht mehr funktionieren?
Im Jahr 1848 schoss zum Beispiel bei einer Explosion eine Eisenstange durch das Stirnhirn des amerikanischen Sprengmeisters Phineas Gage.
Der Unfall machte den netten Herrn Gage zu einem Rowdy. Die Verletzung änderten massiv seine Persönlichkeit: Plötzlich zockte der brave Bürger und schimpfte wie ein Matrose. War also das Stirnhirn, der präfrontale Cortex, auch für unser soziales Verhalten und die Moral zuständig? „Schuss durch die Seele“, nannte der Spiegel vor ein paar Jahren den Fall.
Dank den neuen bildgebenden Verfahren müssen die Hirnforscher im dritten Jahrtausend zum Glück nicht mehr auf Verletzungen und Erkrankungen des Gehirns warten und können gezielt immer kleinere Gehirnteile untersuchen, ja, einzelne Neuronen:
2005 erforschte das Team des Gehirnforschers Quiroga das Problem der visuellen Invarianz: Wie identifizieren wir Sachen, wenn wir sie aus einem Blickwinkel heraus bzw. einer Ansicht noch nie gesehen haben? Wie erkennt eine Frau ihren Mann, der sein Aussehen mit vier Maß Bier grundlegend geändert hatte? Wieso erkennst du deinen kleinen Sohn, auch wenn Hansi von einer Schokoeis-Orgie bei einem Geburtstag zurückkehrt.
Bei einem Experiment sahen die Neurowissenschaftler verblüfft, dass eine Gehirnzelle nur dann feuerte, wenn sie ein Bild der Schauspielerin Jennifer Aniston sah. Auf andere Schauspieler reagierte die Gehirnzelle nicht, nur auf Jennifer Aniston. Wie ein verliebter Stalker. Später fand man aber im Gehirn von anderen Menschen Zellen, die auch auf andere Konzepte als Jennifer Aniston spezialisiert waren: So entdeckte man Konzeptzellen, die nur bestimmte Aufgaben ausführen.
Gebe es auch in künstlichen neuronalen Netzen solche hoch spezialisierten Neuronen, wie die Jennifer-Aniston-Neuronen im menschlichen Gehirn?, fragten sich die KI-Experten der Google-Firma Deep Mind. Um die Blackbox der neuronalen Netze zu entzaubern, wollten sie einzelne Neuronen und Neuronengruppen ausschalten und schauen, was dabei mit dem künstlichen Netz passiere.
Wie wird durch die „Verletzung“ dieser Netzteile die Funktion des Netzes beeinflusst? Sind die leicht interpretierenden „Katzen-Neuronen“ („Cat Neurons“) für das künstliche Netz wichtiger als die „konfusen“ Neuronen? „Katzen Neuronen“ feuern, wenn das künstliche Netz mit dem Bild einer Katze gefüttert wird, wogegen „konfuse“ Neuronen keine bildtypische Spezialisierung zeigen.
Zwei interessante Ergebnisse kamen dabei heraus: Für die Funktion des künstlichen Netzes ist es nicht wichtig, ob spezialisierte „Katzen-„ oder „konfuse“ Neuronen gelöscht werden. Außerdem sind „generalisierende“ Netze gegen solche Verletzungen weniger anfällig als „memorierende“.
„Generalisierende“ Netze erkennen nach dem Training mit Tausenden Katzenbildern auch Katzen auf Bildern, die sie vorher nicht gesehen haben. „Memorierende“ Netze erkennen dagegen nur Katzen, an die sie sich erinnern, mit denen sie also trainiert wurden.
Beide Ergebnisse sind auch dem natürlichen neuronalen Netz eigen, also unserem Gehirn: Das Gehirn kann weiter gut funktionieren, auch wenn einzelne Neuronen oder sogar Neuronengruppen verletzt werden. Oft übernehmen andere Neuronen und Gehirnteile Funktionen der verletzten Teile. Sogar mit nur einer Gehirnhälfte kann der Mensch weitgehend normal leben.
Und klar ist das Gehirn auch ein generalisierendes neuronales Netz und kein nur memorisierendes, also kein einfacher Speicher. Wir Menschen sind Meister im Verallgemeinern. Von Bekanntem können wir wunderbar aufs Unbekannte Schlüsse ziehen.
Vor kurzem haben aber Künstliche-Intelligenz- und Kognitions-Forscher von Deep Mind und University College London beim Experimentieren mit einem neuronalen Netz noch Erstaunlicheres beobachten können:
Bei der Suche nach dem kürzesten Weg durch ein Labyrinth bildete ihr künstliches Netz von sich aus und automatisch Zellen, die den Gitterzellen in natürlichen Gehirnen ähneln. Die Gitterzellen (im entorhinalen Cortex) und Ortszellen (im Hippocampus) sorgen für tierische aber auch unsere Navigation und Orientierung im Raum.
Das neue künstliche Netz mit den so entstandenen Gitterzellen hat den kürzesten Weg durch ein Labyrinth viel besser gefunden als ein herkömmliches künstliches neuronales Netz.
Trotzdem zeigt das menschliche Gehirn viel komplexeres und effektiveres Lernverhalten als ein künstliches neuronales Netz. Im Gehirn wird ja die Information hochgradig parallel verarbeitet. Diese Art der Informationsverarbeitung kann man mit heutigen Computern nicht einmal annähernd bewerkstelligen, obwohl Hollywood-Filme wie „Transcendence“ mit Johny Depp diesen Eindruck vermitteln.
In „Transcendence“ entwickelt sich eine starke übermächtige KI, nachdem man das Gehirn von Dr. Will Caster (Johny Depp) in einem Computerprogramm emuliert – also nachgebildet – und ins Internet gespeist hat.
Seit 30 Jahren kennen wir das Nervensystem des Fadenwurms C. elegans, mit seinen 307 Neuronen und den 7.000 Verbindungen dazwischen, und sind immer noch nicht in der Lage, dieses winzige neuronale System im Computer zu emulieren, damit es als ein Computerprogramm funktioniert.
Wie sollen wir dann das menschliche Gehirn im Computer emulieren, das etwa 86 Milliarden Neuronen mit 100 Billionen Verbindungen dazwischen hat? Trotzdem wird die Erforschung und Weiterentwicklung der künstlichen neuronalen Netze nicht nur in ihrer Anwendung immer fruchtbarer:
Dank der Hirnforschung konnten wir künstliche Netze entwickeln und sie immer besser verstehen. Jetzt können wir durch ihre Erforschung zu verstehen lernen, wie unser Gehirn funktioniert.
Es bleibt spannend.
    Weiterführende Lektüre:
  https://www.quantamagazine.org/new-theory-cracks-open-the-black-box-of-deep-learning-20170921/
  https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
  https://deepmind.com/blog/grid-cells/
  SciLogs
Quelle
قالب وردپرس
0 notes
megajobsdbde · 8 years ago
Text
Beschäftigung als Wiss. Mitarbeiter(in) am Institut für Neuroinformatik 100% - 3 Jahre bei der Ruhr Universität Bochum Bochum
Beschäftigung als Wiss. Mitarbeiter(in) am Institut für Neuroinformatik 100% – 3 Jahre bei der Ruhr Universität Bochum Bochum
Unternehmen: Ruhr Universität Bochum Ort: Bochum – NW – DE Jobübersicht Entwicklung von Algorithm für die Analyse der Lerndynamik. Analyse der Lerndynamik in neuronalen und psychophysiologischen Daten sowie in Verhaltensdaten….
View On WordPress
0 notes
werschreibtderbleibt · 9 years ago
Link
So sieht´s aus  ↓ Vorher:
Tumblr media
Nachher:
Tumblr media
— Fotos © Michael Kappeler/dpa/verfremdet von ZEIT ONLINE
0 notes
thatisprettysmart · 7 years ago
Text
Mind Maps
Have you ever got lost trying to navigate a dense city with a hopelessly vague map? Sometimes that’s what it’s like trying to unpick the complexity of the human brain. For example, transcranial magnetic stimulation is a treatment used for various mental illnesses such as depression and Alzheimer’s, but how exactly it works is a mystery. To investigate what the procedure – which involves firing small electric currents at regions of the brain – actually does, researchers looked at brain ‘orientation maps’ before and after the treatment (pictured – the left of each pair is before the procedure, right after). The colours reflect specific neurons’ orientations in response to visual cues, many of which have changed after the procedure. And visual ‘training’ after the treatment contributed to these updated neural ‘maps’, suggesting that post-treatment behaviour could help redirect misguided brain connections. A promising addition to our incomplete map of the brain’s vast complexity.
Image adapted from work by Vladislav Kozyrev and colleagues
Optical Imaging Group, Institut für Neuroinformatik, Ruhr University Bochum, Bochum, Germany
Images originally published under a Creative Commons (CC BY-NC-ND 4.0) Attribution
Published in PNAS, June 2018
from BPoD - Biomedical Picture of the Day https://ift.tt/2MPtIV2
0 notes
werschreibtderbleibt · 9 years ago
Text
Neuroinformatik
“Die Neuroinformatik ist ein Teilgebiet der Informatik und der Neurobiologie, das sich mit der Informationsverarbeitung in neuronalen Systemen befasst, um diese in technischen Systemen anzuwenden. Sie ist zu unterscheiden von der Computational Neuroscience, welche sich als Teilgebiet der Neurobiologie mit dem Verständnis biologischer neuronaler Systeme mittels mathematischer Modelle beschäftigt.Bei der Neuroinformatik handelt es sich um ein stark interdisziplinäres Forschungsgebiet im Schnittbereich zwischen KI-Forschung und Kognitionswissenschaft.Im Gegensatz zur künstlichen Intelligenz, deren Ziel es ist, Maschinen zu entwickeln, die sich im Ergebnis „intelligent“ verhalten, geht es der Neuroinformatik mehr um die innere Arbeitsweise des Gehirns. Dessen Arbeitsweise wird untersucht, indem man seine Grundbausteine, Neuronen und Synapsen, und deren Verschaltung simuliert.” — https://de.wikipedia.org/wiki/Neuroinformatik
0 notes
werschreibtderbleibt · 9 years ago
Text
Künstliches neuronales Netz
“Künstliche neuronale Netze, auch künstliche neuronale Netzwerke, kurz: KNN (engl. ANN, artificial neural network), sind Netze aus künstlichen Neuronen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Die künstlichen neuronalen Netze haben, ebenso wie künstliche Neuronen, ein biologisches Vorbild. Man stellt sie den natürlichen neuronalen Netzen gegenüber, welche Nervenzellvernetzungen im Gehirn und im Rückenmark bilden. Doch geht es mehr um eine Abstraktion (Modellbildung) von Informationsverarbeitung und weniger um das Nachbilden biologischer neuronaler Netze, was eher Gegenstand der Computational Neuroscience ist.” — https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz
0 notes