TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
Laura Driscoll
Allen Institute
December 4, 2024
Dmitry Krotov
IBM Research, Cambridge
USA
January 8, 2025
VVTNS New Year Opening Lecture
​
Dense Associative Memory and its potential role in brain computation
​​​
Dense Associative Memories (Dense AMs) are energy-based neural networks that share many desirable features of celebrated Hopfield Networks but have superior information storage capabilities. In contrast to conventional Hopfield Networks, which were popular in the 1980s, DenseAMs have a very large memory storage capacity - possibly exponential in the size of the network. This aspect makes them appealing tools for many problems in AI and neurobiology. In this talk I will describe two theories of how DenseAMs might be built in biological “hardware”. According to the first theory, DenseAMs arise as effective theories after integrating out a large number of neuronal degrees of freedom. According to the second theory, astrocytes, a particular type of glia cells, serve as core computational units enabling large memory storage capabilities. This second theory challenges a common point of view in the neuroscience community that astrocytes play the role of only passive house-keeping support structures in the brain. In contrast, it suggests that astrocytes might be actively involved in brain computation and memory storage and retrieval. This story is an illustration of how computational principles originating in physics may provide insights into novel AI architectures and brain computation.
Jonathan Pillow
Princeton University
January 15, 2025
TBA
Srdjan Ostojic
ENS, Paris
January 22, 2025
Structured Excitatory-Inhibitory Networks: a low-rank approach
Networks of excitatory and inhibitory (EI) neurons form a canonical circuit in the brain. Classical theoretical analyses of dynamics in EI networks have revealed key principles such as EI balance or paradoxical responses to external inputs. These seminal results assume that synaptic strengths depend on the type of neurons they connect but are otherwise statistically independent. However, recent synaptic physiology datasets have uncovered connectivity patterns that deviate significantly from independent connection models. Simultaneously, studies of task-trained recurrent networks have emphasized the role of connectivity structure in implementing neural computations. Despite these findings, integrating detailed connectivity structures into mean-field theories of EI networks remains a substantial challenge. In this talk, I will outline a theoretical approach to understanding dynamics in structured EI networks by employing a low-rank approximation based on an analytical computation of the dominant eigenvalues of the full connectivity matrix. I will illustrate this approach by investigating the effects of pair-wise connectivity motifs on linear dynamics in EI networks. Specifically, I will present recent results demonstrating that an over-representation of chain motifs induces a strong positive eigenvalue in inhibition-dominated networks, generating a potential instability that challenges classical EI balance criteria. Furthermore, by examining the effects of external input, we found that chain motifs can, on their own, induce paradoxical responses, wherein an increased input to inhibitory neurons leads to a counterintuitive decrease in their activity through recurrent feedback mechanisms. Altogether, our theoretical approach opens new avenues for relating recorded connectivity structures with dynamics and computations in biological networks.
TBA
Hadas Benisty
Technion
January 29, 2025
Matthew Golub
University of Washington
February 5, 2025
TBA
Lea Duncker
Stanford
February 12, 2025
TBA
Songting Li
Jiao tong University
February 26, 2025
TBA
Ernst Montbrio
UPF, Barcelona
March 5, 2025
TBA
Olivier Marre
Institut de la Vision, Paris
March 12, 2025
TBA
Marcelo Rozenberg
Paris-Saclay University
March 19, 2025
TBA
Eve of Cosyne
No Seminar
March 26, 2025
The following day of Cosyne​
No Seminar
April 2, 2025
James DiCarlo
MIT
April 9, 2025
Carl van Vreeswijk Memorial Lecture
​
TBA
TBA
April 16, 2025
No Seminar
Yonatan Loewenstein
ELSC
The Hebrew University
of Jerusalem
April 23, 2025
TBA
TBA
April 30, 2025
No Seminar
Yohai Bar-Sinai
Tel Aviv University
May 7, 2025
TBA
Tomoki Fukai
Okinawa Institute of Science and Technology
May 14, 2025
TBA
Alexei Koulakov
Cold Spring Harbor Laboratory
May 21, 2025
TBA
Nischal Mainali
May 28, 2025
TBA
Bing Wen Brunton
University of Washington
Seattle
June 4, 2025
TBA
Ulises Pereira Oblinovic
Allen Institute
June 11, 2025
TBA
Riccardo Zecchina
Bocconi University, Milano
June 18, 2025
TBA
TBA
June 25, 2025
VVTNS Fifth Season Closing Lecture