Tim Molter’s research while affiliated with Santa Fe Institute and other places

What is this page?


This page lists works of an author who doesn't have a ResearchGate profile or hasn't added the works to their profile yet. It is automatically generated from public (personal) data to further our legitimate goal of comprehensive and accurate scientific recordkeeping. If you are this author and want this page removed, please let us know.

Publications (3)


Thermodynamisches Rechnen: Neuromorphe Computerarchitekturen Teil 2
  • Article

May 2018

·

16 Reads

·

1 Citation

Physik in unserer Zeit

Tim Molter

·

M. Alex Nugent

Zusammenfassung Thermodynamische Bits bestehen aus zwei in Serie geschalteten Memristoren und lassen sich als künstliche Synapsen mit Befehlssätzen steuern. Mehrere von ihnen bilden ein thermodynamisches Neuron, das Lernregeln gehorchen kann. Solche kT‐Neuronen können fast alle Funktionen von Logikgattern nachahmen. Mit ihnen sind rekonfigurierbare Logikgatter konstruierbar, die erheblich Platz, Gewicht und Energie im Vergleich zu digitalen Prozessoren einsparen können. Sie könnten die Basis für eine zukünftige neuromorphe Computerarchitektur bilden.


Jenseits des Mooreschen Gesetzes: Neuromorphe Computerarchitekturen Teil 1

March 2018

·

17 Reads

Physik in unserer Zeit

Zusammenfassung Das Gehirn funktioniert fundamental anders als digitale Computer. Einen Computer mit vergleichbarem Verhältnis von Leistungsfähigkeit, Platzbedarf und Gewicht zu bauen, erfordert einen ganz neuen Ansatz. Ein Schlüssel hierzu könnten thermodynamische Bits sein. Sie bestehen aus zwei in Serie geschalteten Memristoren und lassen sich als künstliche Synapsen mit Befehlssätzen steuern.


From memristors to compositional machine learning: exploring neuromemristive algorithmic abstractions with the knowm API

July 2017

·

40 Reads

Due to the recent congruence of big data and compute acceleration, the field of machine learning (ML) has made significant advancements, driven primarily by deep neural networks trained with the stochastic gradient descent algorithm (DNN). Error rates on challenging learning benchmarks have fallen precipitously. The algorithmic success of DNNs combined with the significant architectural mismatch between modern processors and neural architectures has resulted in a race to build DNN processors. The mismatch is demonstrated by analyzing the dynamic power consumption due to capacitive loss associated with synaptic access: [EQUATION]