<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD Journal Publishing DTD v2.3 20070202//EN" "journalpublishing.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" article-type="research-article">
<front>
<journal-meta>
<journal-id journal-id-type="publisher-id">Front. Comput. Neurosci.</journal-id>
<journal-title>Frontiers in Computational Neuroscience</journal-title>
<abbrev-journal-title abbrev-type="pubmed">Front. Comput. Neurosci.</abbrev-journal-title>
<issn pub-type="epub">1662-5188</issn>
<publisher>
<publisher-name>Frontiers Research Foundation</publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="doi">10.3389/fncom.2012.00036</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Neuroscience</subject>
<subj-group>
<subject>Original Research</subject>
</subj-group>
</subj-group>
</article-categories>
<title-group>
<article-title>Analysis of Synaptic Scaling in Combination with Hebbian Plasticity in Several Simple Networks</article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="yes">
<name><surname>Tetzlaff</surname> <given-names>Christian</given-names></name>
<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
<xref ref-type="author-notes" rid="fn001">&#x0002A;</xref>
</contrib>
<contrib contrib-type="author">
<name><surname>Kolodziejski</surname> <given-names>Christoph</given-names></name>
<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
<xref ref-type="aff" rid="aff4"><sup>4</sup></xref>
</contrib>
<contrib contrib-type="author">
<name><surname>Timme</surname> <given-names>Marc</given-names></name>
<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
<xref ref-type="aff" rid="aff4"><sup>4</sup></xref>
</contrib>
<contrib contrib-type="author">
<name><surname>W&#x000F6;rg&#x000F6;tter</surname> <given-names>Florentin</given-names></name>
<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
</contrib>
</contrib-group>
<aff id="aff1"><sup>1</sup><institution>III. Institute of Physics &#x02013; Biophysics, Georg&#x02013;August&#x02013;Universit&#x000E4;t G&#x000F6;ttingen</institution> <country>G&#x000F6;ttingen, Germany</country></aff>
<aff id="aff2"><sup>2</sup><institution>Network Dynamics Group, Max Planck Institute for Dynamics and Self-Organization</institution> <country>G&#x000F6;ttingen, Germany</country></aff>
<aff id="aff3"><sup>3</sup><institution>Bernstein Center for Computational Neuroscience</institution> <country>G&#x000F6;ttingen, Germany</country></aff>
<aff id="aff4"><sup>4</sup><institution>Institute for Non-linear Dynamics, Georg&#x02013;August&#x02013;Universit&#x000E4;t G&#x000F6;ttingen</institution> <country>G&#x000F6;ttingen, Germany</country></aff>
<author-notes>
<fn fn-type="edited-by"><p>Edited by: David Hansel, University of Paris, France</p></fn>
<fn fn-type="edited-by"><p>Reviewed by: Harel Z. Shouval, University of Texas Medical School at Houston, USA; Maurizio Mattia, Istituto Superiore di Sanit&#x000E0;, Italy</p></fn>
<fn fn-type="corresp" id="fn001"><p>&#x0002A;Correspondence: Christian Tetzlaff, Network Dynamics Group, Max Planck Institute for Dynamics and Self-Organization, Am Fassberg 17, 37077 G&#x000F6;ttingen, Germany. e-mail: <email>tetzlaff&#x00040;physik3.gwdg.de</email></p></fn>
</author-notes>
<pub-date pub-type="epub">
<day>18</day>
<month>06</month>
<year>2012</year>
</pub-date>
<pub-date pub-type="collection">
<year>2012</year>
</pub-date>
<volume>6</volume>
<elocation-id>36</elocation-id>
<history>
<date date-type="received">
<day>24</day>
<month>12</month>
<year>2011</year>
</date>
<date date-type="accepted">
<day>25</day>
<month>05</month>
<year>2012</year>
</date>
</history>
<permissions>
<copyright-statement>Copyright &#x000A9; 2012 Tetzlaff, Kolodziejski, Timme and W&#x000F6;rg&#x000F6;tter.</copyright-statement>
<copyright-year>2012</copyright-year>
<license license-type="open-access" xlink:href="http://www.frontiersin.org/licenseagreement"><p>This is an open-access article distributed under the terms of the <uri xlink:href="http://creativecommons.org/licenses/by-nc/3.0/">Creative Commons Attribution Non Commercial License</uri>, which permits non-commercial use, distribution, and reproduction in other forums, provided the original authors and source are credited.</p></license>
</permissions>
<abstract>
<p>Conventional synaptic plasticity in combination with synaptic scaling is a biologically plausible plasticity rule that guides the development of synapses toward stability. Here we analyze the development of synaptic connections and the resulting activity patterns in different feed-forward and recurrent neural networks, with plasticity and scaling. We show under which constraints an external input given to a feed-forward network forms an input trace similar to a cell assembly (Hebb, <xref ref-type="bibr" rid="B11">1949</xref>) by enhancing synaptic weights to larger stable values as compared to the rest of the network. For instance, a weak input creates a less strong representation in the network than a strong input which produces a trace along large parts of the network. These processes are strongly influenced by the underlying connectivity. For example, when embedding recurrent structures (excitatory rings, etc.) into a feed-forward network, the input trace is extended into more distant layers, while inhibition shortens it. These findings provide a better understanding of the dynamics of generic network structures where plasticity is combined with scaling. This makes it also possible to use this rule for constructing an artificial network with certain desired storage properties.</p>
</abstract>
<kwd-group>
<kwd>plasticity</kwd>
<kwd>synaptic scaling</kwd>
<kwd>neural network</kwd>
<kwd>homeostasis</kwd>
<kwd>synapse</kwd>
<kwd>signal propagation</kwd>
</kwd-group>
<counts>
<fig-count count="8"/>
<table-count count="1"/>
<equation-count count="54"/>
<ref-count count="21"/>
<page-count count="17"/>
<word-count count="12390"/>
</counts>
</article-meta>
</front>
<body>
<sec sec-type="introduction">
<label>1</label> <title>Introduction</title>
<p>Synaptic plasticity in neural systems needs to be regulated without which unwanted effects, like overly strong growth or shrinkage, might occur, destabilizing the network function. Little is known about the underlying biophysical mechanisms which control weight growth. Learning rules (plasticity rules) usually achieve this by weight regularization terms (Bienenstock et al., <xref ref-type="bibr" rid="B3">1982</xref>; Oja, <xref ref-type="bibr" rid="B16">1982</xref>; Miller and MacKay, <xref ref-type="bibr" rid="B13">1994</xref>; Gerstner and Kistler, <xref ref-type="bibr" rid="B7">2002</xref>). A possible alternative arises when considering so-called &#x0201C;synaptic scaling.&#x0201D; This is a mechanism, discovered around 1998, by which network activity is homeostatically regulated (Turrigiano et al., <xref ref-type="bibr" rid="B18">1998</xref>; Turrigiano and Nelson, <xref ref-type="bibr" rid="B19">2000</xref>, <xref ref-type="bibr" rid="B20">2004</xref>). Overly active networks will &#x02013; on a time axis of hours up to days &#x02013; down scale their activity and vice versa. This is achieved by altering the synaptic strengths usually across many neurons, which acts like a scaling mechanism (Turrigiano and Nelson, <xref ref-type="bibr" rid="B19">2000</xref>). Thus, synaptic weights &#x003C9; seem to be regulated by an activity dependent difference term. This term compares for every neuron &#x02013; hence locally &#x02013; output activity <italic>v</italic> against a terminal activity <italic>v<sub>T</sub></italic> such that <inline-formula><mml:math id="M1"><mml:mrow><mml:mfrac><mml:mrow><mml:mi>d</mml:mi><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>d</mml:mi><mml:mi>t</mml:mi></mml:mrow></mml:mfrac><mml:mi>&#x003B3;</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>v</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula>, where &#x003B3;&#x02009;&#x0226A;&#x02009;1 is a rate factor that strongly limits this effect and thereby defines a time scale much slower than that of conventional plasticity (e.g., Hebbian plasticity Hebb, <xref ref-type="bibr" rid="B11">1949</xref> or Spike-timing dependent plasticity, STDP; Bi and Poo, <xref ref-type="bibr" rid="B2">1998</xref>), which is dominated by another rate factor 1&#x02009;&#x0226B;&#x02009;&#x003BC;&#x02009;&#x0003E;&#x02009;&#x003B3;.</p>
<p>As a consequence, synaptic change needs to be described by a combination of a conventional plasticity rule together with this more slowly acting scaling rule: <inline-formula><mml:math id="M2"><mml:mrow><mml:mfrac><mml:mrow><mml:mi>d</mml:mi><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>d</mml:mi><mml:mi>t</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mi>G</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>u</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>v</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x003B3;</mml:mi><mml:mi>H</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>v</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo></mml:mrow></mml:math></inline-formula> where <italic>G</italic> and <italic>H</italic> describe the specific instantiations of these rules (<italic>u</italic> is the presynaptic activity). For example, <italic>G</italic> would be different for a plain hebbian rule (<italic>G</italic>&#x02009;&#x0003D;&#x02009;<italic>uv</italic>) as compared to the BCM rule (<italic>G</italic>&#x02009;&#x0003D;&#x02009;<italic>uv</italic>(<italic>v</italic>&#x02009;&#x02212;&#x02009;&#x00398;)).</p>
<p>In a previous study (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) we have shown that such a combination of <underline>S</underline>ynaptic <underline>P</underline>lasticity <underline>a</underline>nd <underline>S</underline>ynaptic <underline>S</underline>caling (SPaSS) leads to a rule which is globally stable for a wide variety of conditions as soon as scaling depends quadratically on the weights (H&#x02009;&#x0223C;&#x02009;&#x003C9;<sup>2</sup>). Several interesting properties were discussed. For example, a strong external input delivered to a neuron leads to large (stable) post-synaptic weights for this neuron and its direct as well as indirect target neurons. This way reliable propagation of the external signal along several stages becomes possible because all these neurons are connected with each other with strong synapses. Thus, an input trace is stored. This appears interesting as the SPaSS rule apparently allows the system to form such linked groups of neurons, which could be considered as a &#x0201C;cell assembly&#x0201D; (Hebb, <xref ref-type="bibr" rid="B11">1949</xref>; Hahnloser et al., <xref ref-type="bibr" rid="B9">2002</xref>; Harris et al., <xref ref-type="bibr" rid="B10">2003</xref>). So far the dynamic creation and stabilization of cell assemblies has remained an enigma. While the SPaSS rule seem to achieve this (at least to some degree) so far it also remains unclear how these dynamics evolve. Thus, the goal of the current study is to analyze the dependency of size (number of neurons/stages) and strength (weights) of these input traces on the underlying connectivity and used plasticity parameters.</p>
<p>To this end we will use a combined rule with a hebbian plasticity term for <italic>G</italic> and the above mentioned quadratic weight dependence for <italic>H</italic> (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) between neurons <italic>i</italic> and <italic>j</italic>:</p>
<disp-formula id="E1"><label>(1)</label><mml:math id="M30"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x003B3;</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;</mml:mtext><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>with <inline-formula><mml:math id="M3"><mml:mrow><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>d</mml:mi><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>d</mml:mi><mml:mi>t</mml:mi></mml:mrow></mml:mfrac></mml:mrow></mml:math></inline-formula> and &#x003BA;&#x02009;&#x0003D;&#x02009;&#x003BC;/&#x003B3;. In contrast to (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>), we will continue to use &#x003BC; and &#x003BA; and not &#x003BC; and &#x003B3;. This is because the fixed points of such systems are only influenced by the &#x003B3; to &#x003BC; ratio (i.e., &#x003BA;) and &#x003BC; as such merely alters the time scale of our model. Additionally we assume that the output of neuron <italic>i</italic> depends linearly on the product of input and weight: <italic>v<sub>i</sub></italic>&#x02009;&#x0003D;&#x02009;&#x003A3;<italic><sub>j</sub></italic> <italic>w<sub>ij</sub></italic>&#x000B7;<italic>u<sub>j</sub></italic>. Then we can adopt the results of a one synapse system from (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) and state the stable excitatory fixed point by using &#x003BA; as:</p>
<disp-formula id="E2"><label>(2)</label><mml:math id="M31"><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:math></disp-formula>
<p>or rewritten with <italic>v<sub>i</sub></italic>&#x02009;&#x0003D;&#x02009;<italic>w<sub>ij</sub></italic>&#x000B7;<italic>u<sub>j</sub></italic> as:</p>
<disp-formula id="E3"><label>(3)</label><mml:math id="M32"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>This activity value <inline-formula><mml:math id="M4"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> is the target activity of neuron <italic>i</italic> given input <italic>u<sub>j</sub></italic>. This target activity becomes equal to the terminal activity <italic>v<sub>T</sub></italic> if synaptic plasticity does not influence synaptic weights anymore (i.e., &#x003BA;&#x02009;&#x0003D;&#x02009;0).</p>
<p>Now, we want to reintroduce in more detail the results from (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) which are relevant for the current study: Figure <xref ref-type="fig" rid="F1">1</xref>A shows a schematic rendering of a network of 100 neurons that has been designed with three connections from each neuron to randomly chosen target neurons. All neurons are rate coded and we have used hebbian plasticity together with scaling as defined in equation (1). Three neurons have received strong, constant, external input, all other neurons only weak random input. This leads to two groups of neuronal descendent-lines in the network. Group 1: The three neurons receiving the strong input (input neurons) project to 9 children, 27 grandchildren, 81 great-grandchildren, etc., where &#x02013; due to the randomness of the connection patterns &#x02013; loops can be formed, too. Group 2: The same descendent line arises for any randomly chosen other three neurons (control neurons), too. After network relaxation we have analyzed how the fixed points of activities and weights look like for these two groups of neurons. The black lines in Figure <xref ref-type="fig" rid="F1">1</xref>B show activities (solid) and weights (dashed) for the input-descendent group; the gray lines for the control descendent group. Neurons that descend from the input neurons represent the input along at least three connection stages by producing higher activities and higher, stable weights. Thus, this network was able to store an input trace and form a &#x0201C;cell assembly&#x0201D; (Hebb, <xref ref-type="bibr" rid="B11">1949</xref>). For more details concerning this result see Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>.</p>
<fig id="F1" position="float">
<label>Figure 1</label>
<caption><p><bold>Given a strong external input synaptic plasticity combined with synaptic scaling (equation 1) leads to an input trace similar to a cell assembly</bold>. <bold>(A)</bold> Schematic of post-synaptic connectivity of selected neurons up to stage five. The red neuron receives a strong external input (yellow arrow). Parts of the descendent network stages are highlighted to show the general connectivity structures analyzed in this study (c.f. Figure <xref ref-type="fig" rid="F2">2</xref>). <bold>(B)</bold> Neural activities (dashed lines) and weights (solid lines) after stabilization found for the first four stages. Weights and activities of the stages linked to the external input (black) are significantly larger compared to control neurons (gray) over the first three stages representing an input trace (cell assembly).</p>
</caption>
<graphic xlink:href="fncom-06-00036-g001.tif"/>
</fig>
<p>In the current study we are going to investigate the sphere of influence of the given external input on the fixed points of weights and activities of the network dependent on the underlying connectivity. For this, we split the complex random network (c.f. Figure <xref ref-type="fig" rid="F1">1</xref>A) in smaller, more generalized parts (e.g., purple areas in Figures <xref ref-type="fig" rid="F1">1</xref>A and <xref ref-type="fig" rid="F2">2</xref>) and analyze their influence on size (number of neurons/stages) and strength (weights) of the input trace (cell assembly).</p>
<fig id="F2" position="float">
<label>Figure 2</label>
<caption><p><bold>The different networks investigated in this study</bold>. <bold>(A)</bold> A feed-forward network consists of M layers each with <italic>N<sub>k</sub></italic> neurons. Each neuron <italic>j&#x02009;<sup>m</sup></italic> of each layer m connects to all neurons of the source-layer <italic>m</italic>&#x02009;&#x02212;&#x02009;1 and target-layer <italic>m</italic>&#x02009;&#x0002B;&#x02009;1 and has no connections within its layer. In this example neuron n&#x02009;&#x0003D;&#x02009;a of the first layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;0 (pink) receives an input &#x02111; while the other neurons within this layer do not. <bold>(B)</bold> The smallest recurrent system: a neuron with a self-connection receiving external input. <bold>(C)</bold> A neuron receives an external input and is recurrently connected to another neuron. <bold>(D)</bold> Three neurons build a ring structure.</p></caption>
<graphic xlink:href="fncom-06-00036-g002.tif"/>
</fig>
<p>First, we obtain analytical results for excitatory feed-forward networks (Figure <xref ref-type="fig" rid="F2">2</xref>A) with and without lateral connections and with feed-forward or lateral inhibition. In addition, we derive stability constraints for the maximally allowed input strength. An interesting result is that the combination of plasticity and scaling reduces lateral signal dispersion in feed-forward networks even without inhibition.</p>
<p>Second, we investigate recurrent network structures which are generally more difficult to handle and analytical results are hard to derive (here we mostly rely on numerics). However, we still provide analytical insights which lead to two observation: First, recurrences increase activity compared to feed-forward structures and, therefore, extend the input trace (cell assembly) within the network. Second, if we connect neurons so that they form a recurrent ring, the stability of rings of different size in a network is determined by the stability of the ring with the smallest number of neurons. All these aspects are consolidated by numerics.</p>
<p>To help navigating through this diversity, we provide at the end of most subsections a short paragraph that summarizes the results from this subsection. As part of the Discussion section we, finally, summarize all main findings (also in Table <xref ref-type="table" rid="T1">1</xref>) and based on the main findings of this study give an example of a topology which results in localized cell assemblies (Figure <xref ref-type="fig" rid="F8">8</xref>).</p>
<table-wrap position="float" id="T1">
<label>Table 1</label>
<caption><p><bold>Tabular summary of the influence of different network structures compared to a pure feed-forward network</bold>.</p></caption>
<table frame="hsides" rules="groups">
<thead>
<tr>
<th align="left">Network structure</th>
<th align="left"><italic>v<sup>max</sup></italic></th>
<th align="left">Input interval</th>
<th align="left">Length of inp. trace</th>
<th align="left">Global fixed point (<italic>g</italic>)</th>
</tr>
</thead>
<tbody>
<tr>
<td align="left">Lateral excitation</td>
<td align="left">&#x021D3;</td>
<td align="left">&#x021D3;</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x021D3;</td>
</tr>
<tr>
<td align="left">Feed-forward inhibition</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x021D3;</td>
<td align="left">&#x021D1;</td>
</tr>
<tr>
<td align="left">Feedback inhibition</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x021D3;</td>
<td align="left">&#x021D1;</td>
</tr>
<tr>
<td align="left">Recurrent exci.(deeper layers)</td>
<td align="left">&#x02212;</td>
<td align="left">&#x02212;</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x02212;</td>
</tr>
<tr>
<td align="left">Recurrent exci.(earlier layers)</td>
<td align="left">&#x02212;</td>
<td align="left">&#x021D3;</td>
<td align="left">&#x021D1;</td>
<td align="left">&#x02212;</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Each network structure analyzed in this study influences different properties of the propagation mechanism in a feed-forward network with the SPaSS rule. Arrows (&#x021D1;, &#x021D3;) show the change of these properties in comparison to the pure feed-forward network. Bar (&#x02212;) means no difference. Properties: <italic>v<sup>max</sup></italic>: position of the upper boundary for bounded development; input interval: interval of inputs leading to bounded development; length of inp. trace: number of layers needed to reach the global fixed point; global fixed point (<italic>g</italic>): weight value (&#x003C9;<sup>(<italic>g</italic>)</sup>) of the global fixed point. For more details see main text</italic>.</p>
</table-wrap-foot>
</table-wrap>
</sec>
<sec sec-type="materials|methods" id="s1">
<label>2</label> <title>Materials and Methods</title>
<sec>
<label>2.1</label> <title>General fixed point analysis</title>
<p>The differential equations of weights and activities for different network topologies are derived in the main text and analyzed according to their fixed point structure. This analysis is based on standard methods for a given set of differential equations <inline-formula><mml:math id="M5"><mml:mrow><mml:mfrac><mml:mrow><mml:mi>d</mml:mi><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>d</mml:mi><mml:mi>t</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">=</mml:mo><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003B3;</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> determining the dynamics of &#x003C9; and its fixed points &#x003C9;&#x0002A;, where <inline-formula><mml:math id="M6"><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula> To assess the stability of these fixed points, we analytically computed the Jacobian <italic>J</italic><sub>&#x003B3;</sub>(&#x003C9;) of &#x003B3;; a fixed point <italic>&#x003C9;</italic>&#x0002A; is stable if all eigenvalues at <italic>&#x003C9;</italic>&#x02009;&#x0003D;&#x02009;<italic>&#x003C9;</italic>&#x0002A; are smaller than zero, and unstable otherwise. Numerics are done by solving the differential equations with the Euler method.</p>
</sec>
<sec>
<label>2.2</label> <title>Feed-forward network</title>
<p>The feed-forward network (see Figure <xref ref-type="fig" rid="F2">2</xref>A) consists of <italic>M</italic> layers each with <italic>N<sub>k</sub></italic> neurons. Each neuron <italic>n</italic>&#x02009;&#x02208;&#x02009;{1, &#x02026;, <italic>N</italic>} of each layer <italic>k</italic>&#x02009;&#x02208;&#x02009;{0, &#x02026;, <italic>M</italic>&#x02009;&#x02212;&#x02009;1} has an all-to-all connection to all neurons of the target-layer <italic>k</italic>&#x02009;&#x0002B;&#x02009;1 and no connection to neurons within its layer <italic>k</italic> if not stated differently. Therefore, neuron <italic>n</italic>&#x02009;&#x0003D;&#x02009;<italic>i</italic><sup>(<italic>m</italic>)</sup> of layer <italic>m</italic> receives its inputs from all neurons <italic>j</italic><sup>(<italic>m</italic>&#x02212;1)</sup> of layer <italic>m</italic>&#x02009;&#x02212;&#x02009;1 with their activities <inline-formula><mml:math id="M7"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> via synapses of strength <inline-formula><mml:math id="M8"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula> Thus, the output activity <inline-formula><mml:math id="M9"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> of neuron <italic>i</italic><sup>(<italic>m</italic>)</sup> is the function <inline-formula><mml:math id="M10"><mml:mrow><mml:mi>F</mml:mi><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mo class="MathClass-op">&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:msubsup><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula> It will be transmitted to all neurons of layer <italic>m</italic>&#x02009;&#x0002B;&#x02009;1. For simplicity, in this study the function <italic>F</italic> is chosen to be the identity which does not influence the results qualitatively (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>).</p>
</sec>
</sec>
<sec>
<label>3</label> <title>Results</title>
<sec>
<label>3.1</label> <title>Feed-forward networks</title>
<sec>
<label>3.1.1</label> <title>Weights and activities in feed-forward networks</title>
<p>The simplified structure in Figure <xref ref-type="fig" rid="F2">2</xref>A depicts how an input signal to a random network is traveling along topological stages (layers) within this network and how the network &#x0201C;reacts&#x0201D; to the input by adapting weights and activities. For this we simulate the behavior of such a feed-forward network with one neuron per stage (c.f. Figures <xref ref-type="fig" rid="F1">1</xref>A and <xref ref-type="fig" rid="F3">3</xref>) given a noisy input to layer one (activity of red neuron). As shown before (Figure <xref ref-type="fig" rid="F1">1</xref>), this activity leads to a strong post-synaptic synapse resulting in high (but not as high as red) activity at layer 1 (green neuron). This behavior is propagated until the activity vanishes in layer 4 (gray). This is the basic property of the above described input trace (cell assembly). Even if the input is reduced for a certain duration the network can re-adapt to its previous stable state very fast (c.f. Figure <xref ref-type="fig" rid="F3">3</xref>). Thus, even with a noisy external input, the network can construct a stable cell assembly along several stages.</p>
<fig id="F3" position="float">
<label>Figure 3</label>
<caption><p><bold>A noisy external input leads to propagation of activity along several stages</bold>. The first neuron (red) receives a time varying (noisy) input which leads to a strong post-synaptic synapse. Thus, the activity is transmitted to the next stage (green) resulting in high (but smaller than the input) activity and weight. This transmission occurs along several stages until the activity vanishes (gray). Even a short decrease of the input can be compensated quite fast.</p></caption>
<graphic xlink:href="fncom-06-00036-g003.tif"/>
</fig>
<p>In the following we analyze analytically the fixed points of weights and activities for each stage dependent on feed-forward connections and the input. We consider an input of average strength &#x02111; given to a neuron <italic>j</italic><sup>(0)</sup>&#x02009;&#x0003D;&#x02009;<italic>a</italic> of the first layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;0 (pink neuron in Figure <xref ref-type="fig" rid="F2">2</xref>A), which leads then to the input activity <inline-formula><mml:math id="M11"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>k</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow></mml:math></inline-formula> of the first layer (the other neurons in layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;0 have <inline-formula><mml:math id="M12"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi><mml:mo class="MathClass-rel">&#x02260;</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn></mml:mrow></mml:math></inline-formula>). Next, we calculate the weights <inline-formula><mml:math id="M13"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> and activities <inline-formula><mml:math id="M14"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> of a neuron <italic>i</italic><sup>(1)</sup> of the next layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;1 assuming that the dynamics have stabilized:</p>
<disp-formula id="E4"><label>(4)</label><mml:math id="M33"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo mathsize="big">&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>j</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:munderover><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>Given this result, equation (1) and <inline-formula><mml:math id="M15"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> the dynamics for weights in the second layer write</p>
<disp-formula id="E5"><label>(5)</label><mml:math id="M34"><mml:mtable><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mo>(</mml:mo><mml:mn>1</mml:mn><mml:mo>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;&#x02003;</mml:mtext><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mo>(</mml:mo><mml:mn>1</mml:mn><mml:mo>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfenced></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>This equation still has only one fixed point in the excitatory regime (i.e., &#x003C9;&#x02009;&#x0003E;&#x02009;0):</p>
<disp-formula id="E6"><label>(6)</label><mml:math id="M35"><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mi>&#x02111;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>a</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:math></disp-formula>
<p>Substituting this solution into equation (4) gives</p>
<disp-formula id="E7"><label>(7)</label><mml:math id="M36"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mrow><mml:mn>4</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:math></disp-formula>
<p>We write <inline-formula><mml:math id="M16"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> as this solution applies for all <italic>i</italic><sup>(1)</sup>&#x02208;{1, &#x02026;, <italic>N</italic><sub>1</sub>} of layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;1 because neuron <italic>j</italic><sup>(0)</sup>&#x02009;&#x0003D;&#x02009;<italic>a</italic> is connected to all neurons of layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;1.</p>
<p>All neurons of layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;1 have the same activity and since we use an all-to-all connectivity between each layer, neurons within each subsequent layer <italic>k</italic>&#x02009;&#x02265;&#x02009;1 will have equal activity, too. Hence, the (equal) activity of each neuron in layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;<italic>m</italic> and also the (equal) strength of each weight projecting to layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;<italic>m</italic> merely depends on the (equal) activity of each neuron in layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;<italic>m</italic>&#x02009;&#x02212;&#x02009;1 and the number of neurons <italic>N</italic><sub>(<italic>m</italic>&#x02212;1)</sub> in this layer:</p>
<disp-formula id="E8"><mml:math id="M37"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;</mml:mtext><mml:mspace width="1em" class="quad"/><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mtext>&#x02003;(8)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;</mml:mtext><mml:mspace width="1em" class="quad"/><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mtext>&#x02003;(9)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>In the next subsection we will analyze and discuss the dynamics of these equations for different parameters given the same number of neurons in each layer (<italic>N</italic>&#x02009;&#x0003D;&#x02009;<italic>N<sub>k</sub></italic>, &#x02200;<italic>k</italic>&#x02208;{0, &#x02026;, <italic>M</italic>&#x02009;&#x02212;&#x02009;1}).</p>
</sec>
<sec>
<label>3.1.2</label> <title>Development of weights and activities along layers</title>
<p>Equations (8) and (9) describe the dynamics of weights and activities in a feed-forward network that is stimulated by just one input. When we look at the propagation of the activity (after stabilization of the weights) for different parameter values, we will find two qualitatively different scenarios: Activities will increase (<italic>divergent regime</italic>) or decrease (<italic>bounded regime</italic>) from layer to layer. As divergence should be avoided and bounded development enforced, the following relation has to be fulfilled for all neurons <inline-formula><mml:math id="M17"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-rel">&#x0003E;</mml:mo><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">:</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula> We now calculate lower and upper bounds for the activity and the weights so that we stay in the bounded regime.</p>
<disp-formula id="E9"><mml:math id="M38"><mml:mtable><mml:mtr><mml:mtd columnalign="right"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mover class="msup"><mml:mrow><mml:mo class="MathClass-op">&#x02264;</mml:mo></mml:mrow><mml:mrow><mml:mo class="MathClass-punc">!</mml:mo></mml:mrow></mml:mover><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd columnalign="right"><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd columnalign="left"><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mn>0</mml:mn></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<disp-formula id="E10"><mml:math id="M39"><mml:mtable><mml:mtr><mml:mtd columnalign="left"><mml:mo class="MathClass-rel">&#x021D2;</mml:mo><mml:mspace width="2em" class="qquad"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mn>0</mml:mn></mml:mtd></mml:mtr><mml:mtr><mml:mtd columnalign="right"><mml:mo class="MathClass-bin">&#x02228;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo>-</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mo>&#x003BA;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The first inequality applies for negative firing rates. Thus, we ignore this result in the following. The second inequality defines an upper and lower bound on the activity or rather on the input &#x02111;:</p>
<disp-formula id="E11"><mml:math id="M40"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(10)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(11)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The two constraints equations (10) and (11), and the nullcline for the weights (equation A1 in Appendix) define the weight-activity phase space (cf. Figures <xref ref-type="fig" rid="F4">4</xref>A&#x02013;C) as well as the development of the fixed points of activity and weight along layers or rather stages <italic>m</italic> (cf. Figures <xref ref-type="fig" rid="F4">4</xref>D&#x02013;E) in a feed-forward network. The trajectory depends on the terminal firing rate <italic>v<sub>T</sub></italic> and the number of neurons <italic>N</italic> (c.f. Figure <xref ref-type="fig" rid="F4">4</xref>).</p>
<fig id="F4" position="float">
<label>Figure 4</label>
<caption><p><bold>The phase space of a feed-forward network and how the representation of a given input depends on the parameter v<sub>T</sub></bold>. <bold>(A&#x02013;C)</bold> The constraints <italic>v<sup>min</sup></italic>, <italic>v<sup>max</sup></italic> (vertical black dashed lines), and &#x003C9;<italic><sup>equ</sup></italic> (purple dashed line) define the direction of change of weight and activity (arrows) from layer to layer on the fixed point curve (colored continuous line). <bold>(A1&#x02013;A6)</bold> The sub-panels show the fixed point values of the weights (top) and activities (bottom) of the layers at different regimes (colored according to the phase space). <bold>(D,E)</bold> Resulting from these curves the number of layers m needed to reach the global fixed point (thus, representing an input) varies for different <italic>v<sub>T</sub></italic>. Dashed lines are the respective <italic>v<sup>min</sup></italic> lines. For more details see main text. Parameters: <italic>k</italic>&#x02009;&#x0003D;&#x02009;2, <italic>N</italic>&#x02009;&#x0003D;&#x02009;1; <bold>(A)</bold> <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;3</sup>; <bold>(B)</bold> <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;2</sup>; <bold>(C)</bold> <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;1</sup> <bold>(D&#x02013;E)</bold> &#x02111;&#x02009;&#x0003D;&#x02009;0.3.</p></caption>
<graphic xlink:href="fncom-06-00036-g004.tif"/>
</fig>
<p>The phase space consists of two qualitatively different curves. The first class of curves represents the fixed points of each layer (equation 8). These fixed points do not depend on layer number <italic>k</italic> directly but on the input to this layer which is the output of the preceding layer <inline-formula><mml:math id="M18"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula> In Figures <xref ref-type="fig" rid="F4">4</xref>A&#x02013;C these fixed points are represented by the solid line. The second class of curves deals with the layer to layer fixed points of our system, i.e., with the previously calculated two constraints equations (10) and (11) and, additionally, equation (A1) for the weights. These constraints define the limits of a region within which activity stays bounded from layer to layer. In Figures <xref ref-type="fig" rid="F4">4</xref>A&#x02013;C these curves are dashed lines (vertical black lines are <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic>; the purple line is the nullcline &#x003C9;<sup>equ</sup> for &#x003C9;<italic><sup>m</sup></italic>&#x02009;&#x0003D;&#x02009;&#x003C9;<italic><sup>m</sup>&#x02212;1</italic>). The constraints <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic> divide the phase space into three qualitatively different regimes: if the activity of only a single layer is smaller than <italic>v<sup>min</sup></italic>, the activity of the next layer &#x0201C;jumps&#x0201D; to <italic>v<sup>min</sup></italic> and stays there for the descendant layers. If the activity is larger than <italic>v<sup>max</sup></italic>, activities increases from layer to layer; only if the activity stays between <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic>, activities decrease from layer to layer and stay bounded (c.f. arrows in Figure <xref ref-type="fig" rid="F4">4</xref>A). Only <italic>v<sup>max</sup></italic> is significantly influenced by <italic>N</italic> leading to a smaller stable range as more neurons excite one neuron in the next stage.</p>
<p>Now we can understand how fixed points develop from layer to layer and, thus, how large a cell assembly, given input strength &#x02111;, gets.</p>
<p>First, we apply an input from the bounded regime that causes activities and weights of the first layer to converge to their fixed points which lie on the blue line (e.g., <italic>k</italic>&#x02009;&#x0003D;&#x02009;0 in Figure <xref ref-type="fig" rid="F4">4</xref>A). The resulting activity <italic>v</italic><sup>(0)</sup>&#x0002A; is then transmitted to the next layer and causes in turn weights of the next layer to converge. Intuitively, this is visualized by a line going downward until it reaches the weight nullcline &#x003C9;<sup>equ</sup>. From here, weights together with the activity of the previous layer once again cause the activity of the next layer (<italic>k</italic>&#x02009;&#x0003D;&#x02009;1) to converge, too. This is visualized by a line going leftwards to the blue fixed point curve.</p>
<p>This process repeats from layer to layer until the global fixed point at (<italic>v</italic><sup>(<italic>g</italic>)</sup>&#x02009;&#x0003D;&#x02009;<italic>v<sup>min</sup></italic>, &#x003C9;<sup>(<italic>g</italic>)</sup>&#x02009;&#x0003D;&#x02009;1) is reached for layer <italic>k</italic>&#x02009;&#x0003D;&#x02009;<italic>g</italic>. Activities and weights will not change for subsequent layers <italic>k</italic>&#x02009;&#x0003E;&#x02009;<italic>g</italic>. In other words, the external input cannot influence layers <italic>k</italic>&#x02009;&#x0003E;&#x02009;<italic>g</italic>.</p>
<p>Thus, in a pure feed-forward network any kind of information storage can only exists for the first <italic>k</italic> layers since the system reaches its global fixed point for layers beyond <italic>k</italic> independent of the initial input (as long as the input is in the bounded regime).</p>
</sec>
<sec>
<label>3.1.3</label> <title>Influence of parameters</title>
<p>To assess the capacity of information storage (size of input trace), we need to determine the influence of network parameters on <italic>g</italic>. It turns out that most influence on <italic>g</italic> is caused by <italic>v<sub>T</sub></italic>. Figures <xref ref-type="fig" rid="F4">4</xref>D,E demonstrate activity and weight development for three different values of <italic>v<sub>T</sub></italic>. Note that although the development moves along discrete layers, we plot continuous lines.</p>
<p>Next, we estimate the &#x0201C;number of jumps&#x0201D; from the distance between weight nullcline <italic>w</italic><sup>equ</sup> and the blue fixed point curve (c.f. arrows between blue and purple line in Figure <xref ref-type="fig" rid="F4">4</xref>A). A smaller distance (compare Figures <xref ref-type="fig" rid="F4">4</xref>B,C) leads to smaller &#x0201C;jumps&#x0201D; from layer to layer which in turn leads to more layers toward the global fixed point. However, at the same time the difference between <italic>v</italic><sup>min</sup> and <italic>v</italic><sup>max</sup> decreases which leads to a reduced total distance between the input value and <italic>v</italic><sup>min</sup>.</p>
<p>In Figures <xref ref-type="fig" rid="F4">4</xref>A1&#x02013;A6 we also show numerical results of activity and weight development when the input is chosen to be in one of each of the three different regimes; this confirms our analytical observations. For inputs greater than <italic>v</italic><sup>max</sup> the network diverges (Figures <xref ref-type="fig" rid="F4">4</xref>A5 and <bold>A6</bold>). For inputs less than <italic>v</italic><sup>min</sup> the network converges quickly to its global fixed point (<italic>v</italic>&#x02009;&#x0003D;&#x02009;<italic>v<sub>min</sub></italic>, &#x003C9;&#x02009;&#x0003D;&#x02009;1; Figures <xref ref-type="fig" rid="F4">4</xref>A1 and <bold>A2</bold>). Only for inputs between <italic>v</italic><sup>min</sup> and <italic>v</italic><sup>max</sup> (Figures <xref ref-type="fig" rid="F4">4</xref>A3 and <bold>A4</bold>) we notice distinctively different fixed points along several layers until at around layer eight the global fixed point is eventually reached. Thus, such a feed-forward network with inputs between <italic>v</italic><sup>min</sup> and <italic>v</italic><sup>max</sup> stores different values for activities and weights, here up to layer 7. The numerical results of <bold>A3</bold> and <bold>A4</bold> are qualitatively very similar to the analytical curves in Figures <xref ref-type="fig" rid="F4">4</xref>D,E.</p>
<p>We now define the theoretical limits of this system. On the one hand we see from Figure <xref ref-type="fig" rid="F4">4</xref>D that in order to maximize <italic>g</italic> the distance between <italic>v<sup>max</sup></italic> (equation 10) and <italic>v<sup>min</sup></italic> (equation 11) should be small and <italic>v<sub>T</sub></italic> should then be &#x003BE;&#x02009;&#x0003D;&#x02009;(4&#x003BA;<italic>N</italic><sup>2</sup>)<sup>&#x02212;1</sup>:</p>
<disp-formula id="E12"><mml:math id="M41"><mml:munder class="msub"><mml:mrow><mml:mo class="MathClass-op">lim</mml:mo></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02192;</mml:mo><mml:mi>&#x003BE;</mml:mi></mml:mrow></mml:munder><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:munder class="msub"><mml:mrow><mml:mo class="MathClass-op">lim</mml:mo></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02192;</mml:mo><mml:mi>&#x003BE;</mml:mi></mml:mrow></mml:munder><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mi>&#x003BA;</mml:mi><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac></mml:math></disp-formula>
<p>Given an input between <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic>, the system would need <italic>m</italic>&#x02009;&#x02192;&#x02009;&#x0221E; to reach <italic>v<sup>min</sup></italic>. However, with <italic>v<sub>T</sub></italic>&#x02009;&#x02192;&#x02009;(4&#x003BA;<italic>N</italic><sup>2</sup>)<sup>&#x02212;1</sup> the interval (<italic>v<sup>min</sup></italic>, <italic>v<sup>max</sup></italic>) from which inputs can be chosen becomes smaller &#x02013; eventually zero &#x02013; and the network is specialized to &#x0201C;store&#x0201D; only a few (or one) distinct inputs. Additionally, the difference between input representation (minimum fixed point weight &#x003C9;<italic><sup>min</sup></italic>) and global fixed point (&#x003C9;<sup>(<italic>g</italic>)</sup>&#x02009;&#x0003D;&#x02009;1) also becomes smaller (green curve in Figures <xref ref-type="fig" rid="F4">4</xref>D,E). So a noisy read-out of the stored inputs is complicated as an input difference could easily fall inside the noise level. On the other hand, to get a stable read-out and at the same time to &#x0201C;store&#x0201D; a large range of different inputs, the difference between <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic> should be maximized. From equations (10) and (11) we find that <italic>v<sub>T</sub></italic> should be as negative as possible, however, in a pure feed-forward network <italic>v<sub>T</sub></italic>&#x02009;&#x0003C;&#x02009;0 would lead to a negative firing rate for <italic>v</italic><sup>(<italic>g</italic>)</sup>&#x02009;&#x0003D;&#x02009;<italic>v<sup>min</sup></italic>&#x02009;&#x0003C;&#x02009;0 which is mathematically possible but biologically implausible. Thus, <italic>v<sub>T</sub></italic> should minimally go to zero:</p>
<disp-formula id="E13"><mml:math id="M42"><mml:mtable><mml:mtr><mml:mtd><mml:munder class="msub"><mml:mrow><mml:mo class="MathClass-op">lim</mml:mo></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02192;</mml:mo><mml:mn>0</mml:mn></mml:mrow></mml:munder><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:munder class="msub"><mml:mrow><mml:mo class="MathClass-op">lim</mml:mo></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02192;</mml:mo><mml:mn>0</mml:mn></mml:mrow></mml:munder><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>To sum up, there is a trade-off, which depends on <italic>v<sub>T</sub></italic>, between the number of layers representing an input and the stability of this representation against noise. On the one hand, a high <italic>v<sub>T</sub></italic> ensures an extended representation over many layers, but, on the other hand, this representation is now quite susceptible to noise during the read-out process as fixed points are close to each other, and vice versa for a small <italic>v<sub>T</sub></italic>.</p>
</sec>
<sec>
<label>3.1.4</label> <title>Signal dispersion in a feed-forward network with local connectivity</title>
<p>Signals and therefore information in feed-forward networks are transmitted from layer to layer. If we demand that there is still information of our initial signal even after many layers, the network has to maintain the spatio-temporal integrity of inputs. Ideally, inputs should not disperse randomly both in space and in time.</p>
<p>We therefore test the capability of a feed-forward network (Figure <xref ref-type="fig" rid="F2">2</xref>C) for signal representation and transportation. The synapses of the network are modified by the SPaSS rule. Constant weights represent the control (to mimic, for instance, weight hard-bounds). In the first of our two scenarios we present a spatially restricted signal (<italic>transport signal</italic>) to the first layer and then measure the dispersion along layers (Figures <xref ref-type="fig" rid="F5">5</xref>A,B). In the second scenario we inject as an input two adjacent signals with a small spatial gap between them (<italic>resolution signal</italic>; Figures <xref ref-type="fig" rid="F5">5</xref>C,D). With both scenarios we are able to analyze the network&#x02019;s capability to differentiate its inputs after a certain number of layers. Different from the previously analyzed network the feed-forward network is constructed as follows: each neuron projects and in turn receives synapses to and from a neuron at the same position and its two neighbors in the next and the former layer.</p>
<fig id="F5" position="float">
<label>Figure 5</label>
<caption><p><bold>Signals travel along layers in a pure feed-forward network depending on the used plasticity mechanisms</bold>. <bold>(A,B)</bold> Spatial smearing of a signal is analyzed by presenting one spatially restricted input to a small group of neurons in the feed-forward network. Constant weights &#x003C9;<sub>c</sub> lead to smearing (compare activity profile of given layer in red with the footprint of the original signal shown by the dashed lines). The SPaSS rule produces much less smearing and the signal propagates along layers mostly remaining inside the originally stimulated region until it vanishes. <bold>(C,D)</bold> This focusing effect of the SPaSS rule increases the resolution to distinguish two spatially distant signals in higher (e.g., blue bars of layer 1) and deeper layers (e.g., layer 3). Parameters: &#x003C9;<italic><sub>c</sub></italic>&#x02009;&#x0003D;&#x02009;0.2, &#x003BA;&#x02009;&#x0003D;&#x02009;2, <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;2</sup>, &#x02111;&#x02009;&#x0003D;&#x02009;0.1, &#x02111;<italic><sub>background</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;4</sup>, <italic>N</italic>&#x02009;&#x0003D;&#x02009;20, <italic>M</italic>&#x02009;&#x0003D;&#x02009;10 the first six layers are shown.</p></caption>
<graphic xlink:href="fncom-06-00036-g005.tif"/>
</fig>
<p>If the weights are set to a constant value &#x003C9;<italic><sub>c</sub></italic>, the input smears out with every subsequent layer. This is best visible in Figure <xref ref-type="fig" rid="F5">5</xref>B when comparing the activity profile of each layer with the dashed lines of the original signal. Additionally, the amplitude of the signal gets reduced with every subsequent layer. Although smearing is reduced by using smaller constant weights &#x003C9;<italic><sub>c</sub></italic>, this also leads to a stronger reduction of amplitude. The SPaSS rule, on the other hand, can reduce (after weight stabilization) both smearing and amplitude reduction (cf. Figure <xref ref-type="fig" rid="F5">5</xref>A) at the same time. It is interesting to note that only in the first layer the activity of the border neurons is significantly increased. In all subsequent layers, the signal amplitude of these border neurons does not increase but merely follows the general reduction of signal amplitude.</p>
<p>In the second scenario smearing reduces the gap between the two initially separate signals from layer to layer (Figure <xref ref-type="fig" rid="F5">5</xref>D). For constant weights &#x003C9;<italic><sub>c</sub></italic> the signals are difficult to distinguish after the third layer (Figure <xref ref-type="fig" rid="F5">5</xref>D). For plastic synapses the resolution decreases, too, but both signals are still distinguishable until the signal vanishes at layer five (Figure <xref ref-type="fig" rid="F5">5</xref>C). This effect has its origin in the scaling mechanism which tries to balance incoming signals. This leads to a suppression of later signals while at the same time the strong forward pathways are being maintained.</p>
<p>In summary, the SPaSS rule avoids a spreading or rather smearing of spatially restricted signals in deep layers of feed-forward networks. Therefore, the rule ensures that spatially distinct signals presented to a network are still distinguishable after passing several neuronal layers.</p>
</sec>
<sec>
<label>3.1.5</label> <title>Feed-forward networks with excitatory and inhibitory connections</title>
<p>In this section we consider step by step our feed-forward network with -i- lateral excitatory connections within layers (top row in Figure <xref ref-type="fig" rid="F6">6</xref>), -ii- feed-forward inhibition (middle row in Figure <xref ref-type="fig" rid="F6">6</xref>), and -iii- feedback (self-)inhibition (bottom row in Figure <xref ref-type="fig" rid="F6">6</xref>) while all intra-layer connections stay constant. Under these constraints, analytical results can still be obtained and we state only the main equations here. All calculations &#x02013; similar to those shown above &#x02013; are provided in the Appendix. In principle we could also do analytics for mixtures of the structures presented in Figure <xref ref-type="fig" rid="F6">6</xref> but calculations get lengthy and opaque then, and the same is true for plastic intra-layer connections.</p>
<fig id="F6" position="float">
<label>Figure 6</label>
<caption><p><bold>Inhibition and recurrent connections influence fixed points of activity and weights from layer to layer</bold>. The <bold>(A,D,G)</bold> show the phase space of the modified feed-forward networks (blue lines show the control from Figure <xref ref-type="fig" rid="F4">4</xref>A). Different structures results in different activity <bold>(B,E,H)</bold> and weight <bold>(C,F,I)</bold> development over stages m. <bold>(A&#x02013;C)</bold> In the feed-forward network there are constant excitatory recurrent connections of weight &#x003C9;<sub>R</sub> within each layer. These recurrences shift the constraints <italic>v<sup>min</sup></italic> and <italic>v<sup>max</sup></italic> of the fixed points and narrow the regime of possible inputs. However, the length of a trace and its difference are larger for stronger recurrences (<italic>R</italic>&#x003C9;<italic><sub>R</sub></italic>). <bold>(D&#x02013;F)</bold> Fixed points with feed-forward inhibition <bold>(G&#x02013;I)</bold>. As <bold>(A&#x02013;C)</bold>, however, with inhibitory recurrent connections. Inhibition (feed-forward and feedback) enlarges the regime of inputs resulting in stable development over layers. However, length and difference of the traces are shortened. Parameters: &#x003BA;&#x02009;&#x0003D;&#x02009;2, <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;10<sup>&#x02212;2</sup>, <italic>N</italic>&#x02009;&#x0003D;&#x02009;1, and <italic>R</italic>&#x003C9;<italic><sub>R/<italic>I</italic></sub></italic>&#x02009;&#x0003D;&#x02009;0, 0.1, &#x02026;, 0.5. For <bold>(B,C,E,F,H,I)</bold> &#x02111;&#x02009;&#x0003D;&#x02009;0.2.</p></caption>
<graphic xlink:href="fncom-06-00036-g006.tif"/>
</fig>
<sec>
<label>3.1.5.1</label> <title>Lateral excitation</title>
<p>First we introduce lateral excitatory connections with weights &#x003C9;<italic><sub>R</sub></italic> (top row in Figure <xref ref-type="fig" rid="F6">6</xref>). We consider a system in which each neuron <italic>i</italic><sup>(<italic>m</italic>)</sup> of layer <italic>m</italic> still receives input from all neurons <italic>j</italic><sup>(<italic>m</italic>&#x02212;1)</sup> of the previous layer <italic>m</italic>&#x02009;&#x02212;&#x02009;1 and, additionally, inputs from <italic>R</italic> neurons within its own layer <italic>m</italic>. As all neurons in a layer receive the same input, the activity <inline-formula><mml:math id="M19"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mrow></mml:math></inline-formula> is the same for all these neurons:</p>
<disp-formula id="E14"><mml:math id="M43"><mml:mtable><mml:mtr><mml:mtd columnalign="left"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo mathsize="big">&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>j</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:munderover><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo mathsize="big">&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>l</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:munderover><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>l</mml:mi></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd columnalign="right"><mml:mtext>&#x02003;&#x02003;</mml:mtext><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mtext>&#x02003;(12)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>If we compare fixed point solutions (equations A2 and A3 in Appendix) and constraints (equations A4&#x02013;A6 in Appendix) with those of the pure feed-forward network without lateral excitatory connections (equations 8&#x02013;11; equation A1 in Appendix), we find that only the number of input neurons <italic>N</italic> is rescaled by the number of lateral excitatory connections <italic>R</italic> so that we can replace</p>
<disp-formula id="E15"><label>(13)</label><mml:math id="M44"><mml:mfrac><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mi>L</mml:mi><mml:mi>a</mml:mi><mml:mi>t</mml:mi></mml:mrow></mml:msub><mml:mspace width="1em" class="nbsp" /><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>w</mml:mi><mml:mi>i</mml:mi><mml:mi>t</mml:mi><mml:mi>h</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mspace width="0.3em" class="thinspace"/><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x0003C;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>A larger number of lateral excitatory connections <italic>R</italic> and/or stronger weights &#x003C9;<italic><sub>R</sub></italic> increase the effective number <italic>N<sub>Lat</sub></italic> of input neurons per layer to neuron <italic>i</italic><sup>(<italic>m</italic>)</sup>. Such an increase leads to a strong decrease in <italic>v<sup>max</sup></italic> while the change in <italic>v<sup>min</sup></italic> remains negligible (dashed lines in Figure <xref ref-type="fig" rid="F6">6</xref>A). Thus, for a stable trace the inputs are now restricted to a smaller region. The positions of fixed points within a layer (continuous red lines), however, do not change much compared to the pure feed-forward network (blue line). This finding lets us expect that global convergence is reached earlier. However, this does not apply (see Figures <xref ref-type="fig" rid="F6">6</xref>B,C) as layer to layer fixed points for &#x003C9; shift (not shown), too, leading to almost the same activity value. Only the weight value of the global fixed point &#x003C9;<italic><sub>global</sub></italic> is reduced. This depends on the strength of the lateral excitatory connections (&#x003C9;<italic><sub>global</sub></italic>&#x02009;&#x02248;&#x02009;1&#x02009;&#x02212;&#x02009;<italic>R</italic>&#x003C9;<italic><sub>R</sub></italic>; see Figure <xref ref-type="fig" rid="F6">6</xref>C, constant parts of the curves). However, more layers are needed to reach this global fixed point (Figure <xref ref-type="fig" rid="F6">6</xref>B).</p>
<p>Thus, with respect to signal dispersion, lateral excitation in feed-forward networks leads to a reduced decay of activity from layer to layer compared to a pure feed-forward structure (Figure <xref ref-type="fig" rid="F5">5</xref>) without effecting the smearing effect much. Thus, as smearing remains limited, distinct signals are transported over more stages when lateral excitation is present.</p>
</sec>
<sec>
<label>3.1.5.2</label> <title>Inhibition</title>
<p>Next, we introduce inhibitory lateral connections with weights &#x003C9;<italic><sub>I</sub></italic>. As we define &#x003C9;<italic><sub>I</sub></italic> as positive, we use a minus sign in all formulas. Inhibitory weights stay constant throughout this study and the derivative of &#x003C9;<italic><sub>I</sub></italic> is set to zero (&#x003C9;<italic><sub>I</sub></italic>&#x02009;&#x0003D;&#x02009;const.) because plasticity mechanisms for inhibitory synapses are still highly debated (Woodin et al., <xref ref-type="bibr" rid="B21">2003</xref>; Haas et al., <xref ref-type="bibr" rid="B8">2006</xref>; Caporale and Dan, <xref ref-type="bibr" rid="B4">2008</xref>).</p>
<p>We investigate feed-forward and feedback inhibition; both types are equivalent to simpler structures (middle row in Figure <xref ref-type="fig" rid="F6">6</xref>, beneath the blue arrows) that are easier to analyze.</p>
<p><italic>Feed-forward inhibition</italic>: Feed-forward inhibition (Figure <xref ref-type="fig" rid="F6">6</xref>, middle row) is an important structure in neuronal networks as, for instance, the ubiquitously present lateral inhibition can be approximated by multiple feed-forward structures.</p>
<p>Feed-forward inhibition (Figure <xref ref-type="fig" rid="F6">6</xref> middle, above blue arrow) consists of three neurons of which one sends signals to the other two neurons. One of these two neurons in turn inhibits the second neuron. This neuron &#x02013; receiving excitatory and inhibitory inputs &#x02013; is defined to be the output. We simplify this structure to two neurons (Figure <xref ref-type="fig" rid="F6">6</xref> middle, beneath blue arrow) which is identical to the original structure if the connection from the source neuron to the inhibitory neuron is set to the identity and neuronal transfer functions are, as before, linear. In the simplified structure the source neuron directly sends signals to the output neuron through a plastic excitatory synapse &#x003C9;<italic><sub>E</sub></italic> and an inhibitory synapse with constant weight <inline-formula><mml:math id="M20"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mrow></mml:math></inline-formula></p>
<p>The activity of the output neuron is then simply the difference between both weights multiplied with the activity of the source neuron <italic>u</italic>:</p>
<disp-formula id="E16"><label>(14)</label><mml:math id="M45"><mml:mtable><mml:mtr><mml:mtd><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo>=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The results for fixed points and constraints (equations A8&#x02013;A12 in Appendix) show that feed-forward inhibition increases the region of a stable input trace defined by the difference between <italic>v<sup>max</sup></italic> and <italic>v<sup>min</sup></italic> (Figure <xref ref-type="fig" rid="F6">6</xref>D). The length of the input trace (cell assembly), however, decreases (Figures <xref ref-type="fig" rid="F6">6</xref>E,F). If we compare this behavior with our pure feed-forward network, we find that feed-forward inhibition influences the dynamics similar to a change in <italic>v<sub>T</sub></italic> toward smaller values (Figure <xref ref-type="fig" rid="F4">4</xref>). The global stable fixed point weight, however, increases with higher inhibitory weights &#x003C9;<italic><sub>I</sub></italic> for feed-forward inhibition (Figure <xref ref-type="fig" rid="F6">6</xref>F, constant parts of the curves) but not when reducing <italic>v<sub>T</sub></italic>; then it always stays at a value of 1 (Figure <xref ref-type="fig" rid="F4">4</xref>E).</p>
<p>In summary, feed-forward inhibition in a feed-forward network effects the fixed point structure in a similar way as a reduced <italic>v<sub>T</sub></italic> in a pure feed-forward network.</p>
<p><italic>Feedback inhibition</italic>: Conceptually different to feed-forward inhibition is feedback inhibition (Figure <xref ref-type="fig" rid="F6">6</xref>, bottom). Here, a neuron inhibits itself via a second neuron (Figure <xref ref-type="fig" rid="F6">6</xref> bottom, above blue arrow). The second neuron receives excitatory input from &#x02013; and in turn inhibits &#x02013; the first neuron which receives inputs from preceding layers and sends signals to subsequent layers. We simplify this structure, similar to the feed-forward inhibitory structure, by setting the excitatory weight to one and, as we do anyhow by (again) using linear transfer functions for all neurons (Figure <xref ref-type="fig" rid="F6">6</xref> bottom, beneath blue arrow). Thus, we have one neuron left which inhibits itself with constant weight <inline-formula><mml:math id="M21"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">;</mml:mo></mml:mrow></mml:math></inline-formula> only the weight &#x003C9;<italic><sub>E</sub></italic> is plastic.</p>
<p>Therefore, the output activity <italic>v</italic> of the neuron is:</p>
<disp-formula id="E17"><mml:math id="M46"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:mi>v</mml:mi></mml:mtd><mml:mtd><mml:mo>=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>v</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi></mml:mrow></mml:msubsup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(15)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo class="MathClass-rel">&#x021D4;</mml:mo><mml:mspace width="2em" class="qquad"/><mml:mi>v</mml:mi></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(16)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The equations for fixed points and constraints (equations A16&#x02013;A18 in Appendix) determine the phase space of such a system (Figure <xref ref-type="fig" rid="F6">6</xref>G). The influence of feedback inhibition mainly shifts <italic>v<sup>max</sup></italic> to higher activity values &#x02013; similar to feed-forward inhibition. This again enlarges the regime of inputs that results in a stable input trace. However, such a representation needs less layers (Figure <xref ref-type="fig" rid="F6">6</xref>H) than in a pure feed-forward network.</p>
<p>In summary, in a feed-forward network feedback inhibition has similar effects as feed-forward inhibition but already smaller inhibitory weights &#x003C9;<italic><sub>I</sub></italic> yield the same results. Another difference is that the fixed point curve (equation A18 in Appendix) shifts less than for feed-forward inhibition and the dynamics of a network with feedback inhibition are more similar to the dynamics of a pure feed-forward network.</p>
</sec>
</sec>
</sec>
<sec>
<label>3.2</label> <title>Recurrent network structures</title>
<p>Until now we looked only at feed-forward structures but recurrent structures are as important, for instance, to understand the dynamics of randomly connected networks. For the rest of this study we will focus on recurrent network structures. We start with presumably the simplest recurrent system: a self-connected neuron (Figure <xref ref-type="fig" rid="F2">2</xref>B) and then move on to slightly more complex ring-like structures (Figures <xref ref-type="fig" rid="F2">2</xref>C,D).</p>
<p>Two main results emerge from this investigation. First, the resulting activities <italic>v</italic> in different network structures after stabilization are ordered as follows: <italic>self</italic>&#x02009;&#x02212;&#x02009;<italic>connected</italic>&#x02009;&#x0003E;&#x02009;<italic>bi</italic>&#x02009;&#x02212;&#x02009;<italic>directional</italic>&#x02009;&#x0003E;&#x02009;<italic>three</italic>&#x02009;&#x02212;&#x02009;<italic>ring</italic>&#x02009;&#x0003E;&#x02009;<italic>N</italic>&#x02009;&#x02212;&#x02009;<italic>ring</italic>&#x02009;&#x0003E;&#x02009;<italic>feed</italic>&#x02009;&#x02212;&#x02009;<italic>forward</italic>. Intuitively we need to consider that recurrent structures lead to a self-enhancement of activity but at the same time the number of neurons that are involved in such a recurrent ring decrease the activity if connections are on average below 1. As a consequence a second, more important observation arises: recurrent connections can be indeed stabilized by the SPaSS rule and if a recurrent structure with only a few number of neurons involved is stable, then all recurrent structures with more neurons involved will be stable, too.</p>
<sec>
<label>3.2.1</label> <title>Self-connected neurons</title>
<p>The simplest recurrent network is a single neuron with an input &#x02111; and a self-connecting synapse with weight &#x003C9; (Figure <xref ref-type="fig" rid="F2">2</xref>B). The activity <italic>v<sub>t</sub></italic> at time <italic>t</italic> of such a neuron is simply the sum of a constant external input &#x02111; and the weighted output of the neuron a time step before. (Instead of one time step a fixed delay term <italic>d</italic> could be used.)</p>
<disp-formula id="E18"><label>(17)</label><mml:math id="M47"><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>t</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:math></disp-formula>
<p>To obtain stability both variables <italic>v</italic> and &#x003C9; have to be constant over time, i.e., <inline-formula><mml:math id="M22"><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow></mml:math></inline-formula>&#x02009;&#x0003D;&#x02009;0 and <italic>v</italic><sub><italic>t</italic></sub>&#x02009;&#x0003D;&#x02009;<italic>v</italic><sub><italic>t</italic>&#x02212;1</sub>. This leads to the following dependency between activity and weight:</p>
<disp-formula id="E19"><label>(18)</label><mml:math id="M48"><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x003C9;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>We insert this equation into the differential equation for weight development:</p>
<disp-formula id="E20"><label>(19)</label><mml:math id="M49"><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-&#x003C9;</mml:mo></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x003C9;</mml:mi></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfenced><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn></mml:math></disp-formula>
<p>and the solutions of equation (19) are</p>
<disp-formula id="E21"><label>(20)</label><mml:math id="M50"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>12</mml:mn></mml:mrow></mml:mfrac><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003B3;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x0039B;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>3</mml:mn><mml:mi>b</mml:mi></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>12</mml:mn></mml:mrow></mml:mfrac><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003B3;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x0039B;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>3</mml:mn><mml:mi>b</mml:mi></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>12</mml:mn></mml:mrow></mml:mfrac><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msqrt><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003B3;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x0039B;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>3</mml:mn><mml:mi>b</mml:mi></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow><mml:mrow><mml:mn>4</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>12</mml:mn></mml:mrow></mml:mfrac><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msqrt><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003B3;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x0039B;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>3</mml:mn><mml:mi>b</mml:mi></mml:mrow></mml:mfenced></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>with</p>
<disp-formula id="E22"><mml:math id="M51"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:mi>&#x003B3;</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:msqrt><mml:mrow><mml:mn>3</mml:mn><mml:msup><mml:mrow><mml:mi>b</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>8</mml:mn><mml:mi>a</mml:mi><mml:mi>c</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mfrac><mml:mrow><mml:mn>5</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msup><mml:mi>a</mml:mi><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>12</mml:mn><mml:mi>a</mml:mi><mml:mi>d</mml:mi></mml:mrow></mml:mfenced><mml:msup><mml:mrow><mml:mi>&#x00393;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mfrac><mml:mrow><mml:mn>4</mml:mn></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msup><mml:mi>a</mml:mi><mml:mi>&#x00393;</mml:mi></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mi>&#x0039B;</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:msqrt><mml:mrow><mml:mn>6</mml:mn></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:msqrt><mml:mrow><mml:mtable><mml:mtr><mml:mtd class="array" columnalign="left"><mml:mn>3</mml:mn><mml:msup><mml:mrow><mml:mi>b</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>8</mml:mn><mml:mi>a</mml:mi><mml:mi>c</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:msup><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mfrac><mml:mrow><mml:mn>4</mml:mn></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msup><mml:mi>a</mml:mi><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>12</mml:mn><mml:mi>a</mml:mi><mml:mi>d</mml:mi></mml:mrow></mml:mfenced><mml:msup><mml:mrow><mml:mi>&#x00393;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">-</mml:mo><mml:msup><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mfrac><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msup><mml:mi>a</mml:mi><mml:mi>&#x00393;</mml:mi></mml:mtd></mml:mtr><mml:mtr><mml:mtd class="array" columnalign="left"><mml:mspace width="1em" class="quad"/><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mn>3</mml:mn></mml:mrow><mml:mrow><mml:mfrac><mml:mrow><mml:mn>3</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msup><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>b</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>4</mml:mn><mml:mi>a</mml:mi><mml:mi>b</mml:mi><mml:mi>c</mml:mi></mml:mrow></mml:mfenced><mml:msup><mml:mrow><mml:mi>&#x003B3;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mtd></mml:mtr></mml:mtable></mml:mrow></mml:msqrt><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mi>&#x00393;</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mfenced separators="" open="(" close=""><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>2</mml:mn><mml:msup><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>27</mml:mn><mml:msup><mml:mrow><mml:mi>b</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mi>d</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>72</mml:mn><mml:mi>a</mml:mi><mml:mi>c</mml:mi><mml:mi>d</mml:mi></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;</mml:mtext><mml:mspace width="1em" class="quad"/><mml:msup><mml:mrow><mml:mfenced separators="" open="" close=")"><mml:mrow><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>4</mml:mn><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>12</mml:mn><mml:mi>a</mml:mi><mml:mi>d</mml:mi></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>2</mml:mn><mml:msup><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>27</mml:mn><mml:msup><mml:mrow><mml:mi>b</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mi>d</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>72</mml:mn><mml:mi>a</mml:mi><mml:mi>c</mml:mi><mml:mi>d</mml:mi></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x02215;</mml:mo><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mi>a</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mi>b</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mi>c</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mstyle class="text"><mml:mtext>and</mml:mtext></mml:mstyle><mml:mspace width="0.3em" class="thinspace"/><mml:mi>d</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>These solutions have to be real (complex part equals zero) and the derivative of equation (19) at these solutions has to be smaller than zero in order to stabilize the dynamics, so parameters &#x02111;, &#x003BA;, and <italic>v<sub>T</sub></italic> have to be restricted. The calculations for assessing these parameters are complex and closed-forms can not be derived anymore. Therefore, the stability for a given set of parameters has to be assessed by numerical calculations of the roots. To reduce the number of parameters only the ratio of the rates (e.g., equations 8&#x02013;22) &#x003BA;&#x02009;&#x0003D;&#x02009;&#x003BC;/&#x003B3; is considered and we plot the maximally allowed input &#x02111;<italic><sup>max</sup></italic> that still leads to a stable weight. All smaller inputs (0&#x02009;&#x0003C;&#x02009;&#x02111;&#x02009;&#x0003C;&#x02009;&#x02111;<italic><sup>max</sup></italic>) lead to a stable weight &#x003C9;, too, and inputs above this value (&#x02111;&#x02009;&#x0003E;&#x02009;&#x02111;<italic><sup>max</sup></italic>) lead to divergent weight dynamics. Thus, we show the parameters which lead to stable dynamics in a &#x003BA;-<italic>v<sub>T</sub></italic>-plot with &#x02111;<italic><sup>max</sup></italic> color coded (Figure <xref ref-type="fig" rid="F7">7</xref>A). The self-connected neuron stabilizes best if &#x003B3; is as large as &#x003BC; (&#x003BA;&#x02009;&#x02248;&#x02009;1) but for the more realistic ratios of one order of magnitude difference (&#x003BA;&#x02009;&#x02248;&#x02009;10) stabilization is still possible for a wide regime. Furthermore, stability requires that <italic>v<sub>T</sub></italic> is small or even negative. Here we stress that (1) negative <italic>v<sub>T</sub></italic> does not imply negative neuronal firing rates as these systems balance plasticity and scaling (<inline-formula><mml:math id="M23"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02260;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-punc">;</mml:mo></mml:mrow></mml:math></inline-formula> see equation <xref ref-type="disp-formula" rid="E3">3</xref> and Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) and (2) negative <italic>v<sub>T</sub></italic> values can be avoided by simply adding inhibition to any of these recurrent networks (Figures <xref ref-type="fig" rid="F2">2</xref>B&#x02013;D). As shown above, constant weight inhibition (Figures <xref ref-type="fig" rid="F6">6</xref>D&#x02013;I) leads to a shift of the network properties toward larger allowed positive values. The general disk-like shape of the stability plot, however, does not change with inhibition added and we will thus continue to consider only excitatory recurrent networks (although <italic>v<sub>T</sub></italic> might be negative).</p>
<fig id="F7" position="float">
<label>Figure 7</label>
<caption><p><bold>Different recurrent structures are stabilized by SPaSS rule</bold>. For different parameter values &#x003BA; and <italic>v<sub>T</sub></italic> the maximal input &#x02111;<italic><sup>max</sup></italic> leading to stable weights is calculated and shown in color code (note the different scale bars). <bold>(A)</bold> Self-connected neurons, <bold>(B)</bold> bi-directional structures, and <bold>(C)</bold> three-neuron rings are analyzed. If one structure is stabilized for a given parameter set (&#x003BA;, <italic>v<sub>T</sub></italic>) all other structures are stable, too. Only the maximal input decreases with more direct (less neurons) recurrences.</p></caption>
<graphic xlink:href="fncom-06-00036-g007.tif"/>
</fig>
<p>We have confirmed our numerical calculations with simulations up to four places after the decimal point for weight &#x003C9; and activity <italic>v</italic>. (For example, for &#x003BA;&#x02009;&#x0003D;&#x02009;2, &#x02111;&#x02009;&#x0003D;&#x02009;0.065, and <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;0.01 the weight and the activity in the simulation as well as in the numerics is &#x003C9;&#x02009;&#x0003D;&#x02009;0.5674 and <italic>v</italic>&#x02009;&#x0003D;&#x02009;0.1503 respectively).</p>
<p>We now compare the activity of a neuron with a self-connection <italic>v<sub>sc</sub></italic> with the activity <italic>v<sub>ff</sub></italic> of a neuron in a feed-forward structure receiving the same input &#x02111; if equation (19) is simplified in the following way (see also <xref ref-type="app" rid="A1">Appendix</xref>): as &#x003C9; is smaller than one, weight-dependent terms of order three (&#x00398;(&#x003C9;<sup>3</sup>)) and higher can be ignored. This leads to following neuronal activity:</p>
<disp-formula id="E23"><label>(21)</label><mml:math id="M52"><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:msqrt></mml:mrow></mml:mfrac></mml:math></disp-formula>
<p>which is larger than <italic>v<sub>ff</sub></italic>&#x02009;&#x0003D;&#x02009;&#x02111;.</p>
<p>In summary, self-connected structures in a neuronal network will raise the risk of instability. As this instability depends on the input (or rather the activity given to the self-connected neuron) this risk will decrease if a self-connected structure is in deeper layers (because activity has already declined there). However, as the resulting fixed point activity of self-connected neurons is larger than the activity of a neuron in a feed-forward structure, self-connections will extend input trace into deeper layers.</p>
</sec>
<sec>
<label>3.2.2</label> <title>Simple recurrent ring networks: bi-directional and three-ring</title>
<p>In recurrent networks there are also other types of recurrent structures than simple self-connected neurons. Thus, in the following we derive the influence of larger recurrences on the stability and activity of neuronal networks. Equations (A19) and (A20) in Appendix show that also for the bi-directional connection the activity is increased compared to the feed-forward networks. This effect could be expected as already constant recurrences enhance network activity, but the SPaSS rule sustains the enhancement and still guarantees stable weights. Interestingly, this effect does not depend on the position of the bi-directional structure within the feed-forward network. The second neuron can be part of the feed-forward network but it can also be outside of the layered structure.</p>
<p>Additionally, we numerically calculated the stable regime for different parameter values and plot the results similar to the self-connected neuron. This analysis (Figure <xref ref-type="fig" rid="F7">7</xref>B) confirms the result that stability is independent of the chosen parameters <italic>v<sub>T</sub></italic> and &#x003BA;. However, we observe that the maximally allowed input &#x02111;<italic><sup>max</sup></italic> that still leads to convergence <italic>increases</italic> compared to the self-connected neuron (mind the changed color scale bars in Figures <xref ref-type="fig" rid="F7">7</xref>A,B).</p>
<p>For the three-neuron ring an enhancement of these observations is observed. Its equations (equation A23 in Appendix) again show that for the three-ring the activity is increased, but less, as compared to the feed-forward networks.</p>
<p>Furthermore, we find that the stability range for the three-ring (Figure <xref ref-type="fig" rid="F7">7</xref>C) looks similar to the one discussed above (Figures <xref ref-type="fig" rid="F7">7</xref>A,B) and the maximally allowed input &#x02111;<italic><sup>max</sup></italic> has further increased.</p>
<p>These considerations can be generalized in a straight-forward way for an <italic>N</italic>-ring, too (not shown).</p>
<p>To conclude, the results presented above confirm what we stated at the beginning of this section. First, if the smallest existing ring structure in a randomly wired recurrent network is stable, then every longer ring will be stable, too. Second, there is an ordering of the resulting activities (see <xref ref-type="app" rid="A1">Appendix</xref>):</p>
<disp-formula id="E24"><mml:math id="M53"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:mstyle class="text"><mml:mtext>w</mml:mtext></mml:mstyle><mml:mo class="MathClass-punc">.</mml:mo><mml:mstyle class="text"><mml:mtext>l</mml:mtext></mml:mstyle><mml:mo class="MathClass-punc">.</mml:mo><mml:mstyle class="text"><mml:mtext>o</mml:mtext></mml:mstyle><mml:mo class="MathClass-punc">.</mml:mo><mml:mstyle class="text"><mml:mtext>g</mml:mtext></mml:mstyle><mml:mo class="MathClass-punc">.</mml:mo><mml:mspace width="1em" class="quad"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02192;</mml:mo><mml:mn>0</mml:mn></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;&#x02003;&#x02003;&#x02003;</mml:mtext><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>s</mml:mi><mml:mi>c</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mi>&#x02111;</mml:mi></mml:mrow></mml:msqrt></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x0003E;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>b</mml:mi><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mi>&#x02111;</mml:mi></mml:mrow></mml:msqrt></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x0003E;</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;&#x02003;&#x02003;&#x02003;&#x02003;</mml:mtext><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>n</mml:mi><mml:mi>r</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>N</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>3</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mi>&#x02111;</mml:mi></mml:mrow></mml:msqrt></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x0003E;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-punc">,</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;&#x02003;&#x02003;&#x02003;&#x02003;&#x02003;</mml:mtext><mml:mstyle class="text"><mml:mtext>with</mml:mtext></mml:mstyle><mml:mspace width="0.3em" class="thinspace"/><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x0003C;</mml:mo><mml:mn>1</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-op">&#x02200;</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>j</mml:mi><mml:mo class="MathClass-rel">&#x02208;</mml:mo><mml:mi>N</mml:mi></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>(<italic>self</italic>&#x02009;&#x02212;&#x02009;<italic>connected</italic>&#x02009;&#x0003E;&#x02009;<italic>bi</italic>&#x02009;&#x02212;&#x02009;<italic>directional</italic>&#x02009;&#x0003E;&#x02009;<italic>N</italic>&#x02009;&#x02212;&#x02009;<italic>ring</italic>&#x02009;&#x0003E;&#x02009;<italic>feed</italic>&#x02009;&#x02212;&#x02009;<italic>forward</italic>). Furthermore (similar to the direct self-connection discussed above) if one neuron connects recurrently <italic>via a ring to itself</italic>, its fixed point activity is enlarged. Thus, given a feed-forward network, this fact ensures that also all following (down stream) layers will have an increased activity and, therefore, more layers are needed to reach the global fixed point. This effect is in general even stronger with the SPaSS rule than with constant weights (c.f. section 5) as the denominator of the activity depends on the input &#x02111;. Thus, the length of the input trace is increased with any excitatory recurrent structure.</p>
</sec>
</sec>
</sec>
<sec sec-type="discussion">
<label>4</label> <title>Discussion</title>
<p>Hebb (<xref ref-type="bibr" rid="B11">1949</xref>) proposed that a group of interlinked neurons forms a &#x0201C;cell assembly.&#x0201D; In this study we show that the combination of synaptic scaling and hebbian plasticity can lead to such &#x0201C;cell assemblies.&#x0201D;</p>
<p>Synaptic scaling is a slow biological process which interacts with faster conventional synaptic plasticity (Abbott and Nelson, <xref ref-type="bibr" rid="B1">2000</xref>; Turrigiano and Nelson, <xref ref-type="bibr" rid="B19">2000</xref>). In a previous study (Tetzlaff et al., <xref ref-type="bibr" rid="B17">2011</xref>) we showed that the (mathematical) combination of both processes leads to stable and reasonable weight growth. In the current study we have extended the analysis of this combined plasticity and scaling (SPaSS) rule to different types of feed-forward and recurrent networks. Our main goal was to try to understand why such networks are capable of forming an input trace in a stable way, with stably enhanced weights along several network stages as shown in Figure <xref ref-type="fig" rid="F2">2</xref>B. Thus, such networks are to some degree capable of <italic>learning and storing</italic> a &#x0201C;cell assembly&#x0201D; (Hebb, <xref ref-type="bibr" rid="B11">1949</xref>) along the network layers.</p>
<p>Our main results are: (1) feed-forward networks indeed obtain a stable sequence of fixed points along several network stages, which can still be analytically calculated. This happens for a certain input range <italic>v<sup>min</sup></italic>&#x02009;&#x0003C;&#x02009;&#x02111;&#x02009;&#x0003C;&#x02009;<italic>v<sup>max</sup></italic>. If the network has many layers eventually a final stable fixed point is reached for all layers <italic>k&#x02009;</italic>&#x0003E;&#x02009;<italic>g</italic>, after which no more useful information processing takes place. Lateral connections and inhibition (feed-forward and feedback) can modify this range of information processing, hence, the extend of the input trace (see Table <xref ref-type="table" rid="T1">1</xref>). For the lower layers one finds that networks with a SPaSS rule reduce signal dispersion as compared to networks with constant connections (see Figure <xref ref-type="fig" rid="F5">5</xref>). (2) As soon as one introduces recurrent connections, calculations become more difficult and most results have to rely on a numerical analysis. Here we find that small excitatory recurrent structures (self-connection, or small rings) are more &#x0201C;dangerous&#x0201D; than large rings as it is easier to get unstable dynamics from small as compared to large rings. Thus, if one stabilizes the smallest ring in a network, one will find that larger rings are stable, too. However, as the resulting activity from a ring is larger than in a feed-forward structure, recurrences enhance the length of an input trace and, thus, extend the influence of an external input into the deeper layers of the network. This way a larger cell assembly representing this input is formed.</p>
<p>Furthermore, we can take the results obtained in this study and conclude how big a cell assembly representing an external input would be and how to change its size by parameters and connectivity. For instance, a feed-forward network with one neuron per layer (also named transmission line) and recurrent (here constant) connections between layers (comparable to section 5 and <xref ref-type="sec" rid="s1">2</xref>) would lead to an input trace with stronger weights compared to a pure feed-forward network. If we introduce additionally long-range feed-forward inhibition the input trace can be &#x0201C;cut&#x0201D; after a few stages. Thus, short-range excitatory feedback together with long-range feed-forward inhibition lead to localized cell assemblies &#x0201C;around&#x0201D; the input neuron (compare black curve in Figure <xref ref-type="fig" rid="F8">8</xref> with gray).</p>
<fig id="F8" position="float">
<label>Figure 8</label>
<caption><p><bold>Connectivity shapes the size of input traces</bold>. In a pure feed-forward network (gray) an input leads to an input trace along several stages. The weights (dashed) and activities (solid) decrease from layer to layer (as already explained in section <xref ref-type="sec" rid="s1">2</xref>). On the one hand, by introducing recurrences the weights have significantly larger fixed points (see black line of the first layers), thus, the cell assembly is more stable against perturbation and more prominent in the network. Long-range inhibition, on the other hand, decreases activities and weights in a way that the cell assembly is &#x0201C;cut&#x0201D; from layer to the next (here, for instance, between 2 and 3). This an example of using the results of this study to define a connectivity which leads to strongly localized cell assemblies. Parameters: <inline-formula><mml:math id="M24"><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">;</mml:mo></mml:mrow></mml:math></inline-formula> others see Figure <xref ref-type="fig" rid="F3">3</xref>.</p>
</caption>
<graphic xlink:href="fncom-06-00036-g008.tif"/>
</fig>
<p>Thus, the SPaSS rule naturally leads to spatially restricted formation of input representations. Such a representation might be indicative of a memory process, which is here reflected by the still very simple process of storing an input trace and this way forming a cell assembly. So far it has proven to be difficult to achieve stable representations of spatial-temporal patterns in time-continuous systems (c.f. Morrison et al., <xref ref-type="bibr" rid="B15">2007</xref> for STDP). In this study we analyzed mainly the spatial dispersion of such an input representation and how this dispersion is influenced by different connectivities. After stabilization removal of the input leads to slow forgetting, which however can be reversed quite fast by presenting the input again (see Figure <xref ref-type="fig" rid="F3">3</xref>). This process of forgetting and re-learning and, furthermore, the temporal aspect of the input representations has to be analyzed in future studies. However, the analysis here suggests that the combination of synaptic plasticity and synaptic scaling might be a good candidate to allow the formation of short term memories (Dudai, <xref ref-type="bibr" rid="B6">2004</xref>) also in larger networks. The aspect of stable learning in attractor neural networks remains largely unresolved (Mongillo et al., <xref ref-type="bibr" rid="B14">2008</xref>; Cutsuridis and Wennekers, <xref ref-type="bibr" rid="B5">2009</xref>; Lansner, <xref ref-type="bibr" rid="B12">2009</xref>) and we would hope that the results presented here will lead onward helping to solve this problem and leading to a better understanding of (short term) memory formation processes.</p>
</sec>
<sec>
<title>Conflict of Interest Statement</title>
<p>The authors declare that the research was conducted in the absence of any commercial or financial relationships that could be construed as a potential conflict of interest.</p>
</sec>
</body>
<back>
<app-group>
<app id="A1">
<title>Appendix</title>
<sec>
<title>Nullcline of weight development over stages in feed-forward networks:</title>
<disp-formula id="E25"><mml:math id="M54"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mover class="msup"><mml:mrow><mml:mo class="MathClass-op">=</mml:mo></mml:mrow><mml:mrow><mml:mo class="MathClass-punc">!</mml:mo></mml:mrow></mml:mover><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo>&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;),(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>which simplifies to the following nullcline for weights <inline-formula><mml:math id="M25"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mi>m</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">:</mml:mo></mml:mrow></mml:math></inline-formula></p>
<disp-formula id="E26"><label>(A1)</label><mml:math id="M55"><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mo>&#x003BA;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mstyle class="text"><mml:mtext>equ</mml:mtext></mml:mstyle></mml:mrow></mml:msup></mml:math></disp-formula>
</sec>
<sec>
<title>Lateral Excitation in feed-forward networks</title>
<p>As defined in the main text, the activity of neuron <italic>i</italic><sup>(<italic>m</italic>)</sup> is</p>
<disp-formula id="E27"><mml:math id="M56"><mml:mrow><mml:msubsup><mml:mi>v</mml:mi><mml:mi>i</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>=</mml:mo><mml:mstyle displaystyle='true'><mml:munderover><mml:mo>&#x02211;</mml:mo><mml:mrow><mml:mi>j</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mi>N</mml:mi></mml:munderover><mml:mrow><mml:msubsup><mml:mi>&#x003C9;</mml:mi><mml:mrow><mml:mi>i</mml:mi><mml:mo>,</mml:mo><mml:mi>j</mml:mi></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:mstyle><mml:msubsup><mml:mi>v</mml:mi><mml:mi>j</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>+</mml:mo><mml:mstyle displaystyle='true'><mml:munderover><mml:mo>&#x02211;</mml:mo><mml:mi>l</mml:mi><mml:mi>R</mml:mi></mml:munderover><mml:mrow><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub></mml:mrow></mml:mstyle><mml:msubsup><mml:mi>v</mml:mi><mml:mi>l</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>=</mml:mo><mml:mi>N</mml:mi><mml:msubsup><mml:mi>&#x003C9;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo><mml:mo>,</mml:mo><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:msubsup><mml:mi>v</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>+</mml:mo><mml:mi>R</mml:mi><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub><mml:msubsup><mml:mi>v</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>&#x02261;</mml:mo><mml:msubsup><mml:mi>v</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:math></disp-formula>
<p>leading to the stability assumption</p>
<disp-formula id="E28"><mml:math id="M57"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>Thus, the differential equation of the weight becomes:</p>
<disp-formula id="E29"><mml:math id="M58"><mml:msubsup><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfenced><mml:mover class="msup"><mml:mrow><mml:mo class="MathClass-op">=</mml:mo></mml:mrow><mml:mrow><mml:mo class="MathClass-punc">!</mml:mo></mml:mrow></mml:mover><mml:mspace width="0.3em" class="thinspace"/><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>The resulting positive stable weight is</p>
<disp-formula id="E30"><label>(A2)</label><mml:math id="M59"><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-punc">,</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>N</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mrow><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:msubsup><mml:mi>&#x003BD;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>+</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo>(</mml:mo><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mi>&#x003BD;</mml:mi><mml:mi>T</mml:mi></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mi>N</mml:mi><mml:msubsup><mml:mi>&#x003BD;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:mo stretchy='false'>(</mml:mo><mml:mn>1</mml:mn><mml:mo>&#x02212;</mml:mo><mml:mi>R</mml:mi><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mo>)</mml:mo></mml:mrow></mml:mrow><mml:mn>2</mml:mn></mml:msup></mml:mrow></mml:msqrt></mml:mrow></mml:math></disp-formula>
<p>with associated activity</p>
<disp-formula id="E31"><label>(A3)</label><mml:math id="M60"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mo>(&#x022C5;)</mml:mo></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>However, to guarantee bounded development for activities <inline-formula><mml:math id="M26"><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>m</mml:mi></mml:mrow></mml:msubsup></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> of the network two constraints, comparable to the pure feed-forward network (equations 10 and 11), have to be maintained</p>
<disp-formula id="E32"><mml:math id="M61"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>r</mml:mi><mml:mi>e</mml:mi><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msubsup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A4)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mi>m</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfenced></mml:mrow></mml:msubsup></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:mi>R</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>R</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>r</mml:mi><mml:mi>e</mml:mi><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A5)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>Furthermore, the &#x003C9;-nullcline is:</p>
<disp-formula id="E33"><label>(A6)</label><mml:math id="M62"><mml:mrow><mml:msubsup><mml:mi>&#x003C9;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo><mml:mo>,</mml:mo><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:msubsup><mml:mi>&#x003BD;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow><mml:mn>2</mml:mn></mml:mfrac><mml:mfrac><mml:mi>N</mml:mi><mml:mrow><mml:mn>1</mml:mn><mml:mo>&#x02212;</mml:mo><mml:mi>R</mml:mi><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub></mml:mrow></mml:mfrac><mml:mo>+</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mi>&#x003BD;</mml:mi><mml:mi>T</mml:mi></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mi>N</mml:mi><mml:mn>2</mml:mn></mml:msup><mml:msubsup><mml:mi>&#x003BD;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup></mml:mrow></mml:mfrac><mml:msup><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mn>1</mml:mn><mml:mo>&#x02212;</mml:mo><mml:mi>R</mml:mi><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mn>2</mml:mn></mml:msup><mml:mo>+</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo>(</mml:mo><mml:mrow><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:msubsup><mml:mi>&#x003BD;</mml:mi><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mo>&#x022C5;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>m</mml:mi><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:msubsup><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mn>2</mml:mn></mml:mfrac><mml:mfrac><mml:mi>N</mml:mi><mml:mrow><mml:mn>1</mml:mn><mml:mo>&#x02212;</mml:mo><mml:mi>R</mml:mi><mml:msub><mml:mi>&#x003C9;</mml:mi><mml:mi>R</mml:mi></mml:msub></mml:mrow></mml:mfrac></mml:mrow><mml:mo>)</mml:mo></mml:mrow></mml:mrow><mml:mn>2</mml:mn></mml:msup><mml:mo>&#x02261;</mml:mo><mml:msubsup><mml:mi>&#x003C9;</mml:mi><mml:mrow><mml:mi>r</mml:mi><mml:mi>e</mml:mi><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>e</mml:mi><mml:mi>q</mml:mi><mml:mi>u</mml:mi></mml:mrow></mml:msubsup><mml:mo>.</mml:mo></mml:mrow></mml:msqrt></mml:mrow></mml:math></disp-formula>
</sec>
<sec>
<title>Feed-forward inhibition in feed-forward network</title>
<p>Here, the activity of the output neuron is the difference between both weights multiplied with the activity of the source neuron <italic>u</italic>:</p>
<disp-formula id="E34"><label>(A7)</label><mml:math id="M63"><mml:mtable><mml:mtr><mml:mtd><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo>=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>As mentioned in the main text, only the excitatory weight has a non-zero derivative</p>
<disp-formula id="E35"><mml:math id="M64"><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>This equation has only a positive stable fixed point at</p>
<disp-formula id="E36"><mml:math id="M65"><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo>&#x0002B;</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:msqrt><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>The term <inline-formula><mml:math id="M27"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:math></inline-formula> is approximately zero as &#x003C9;<italic><sub>I</sub></italic> is defined to be smaller than &#x003C9;<italic><sub>E</sub></italic>:</p>
<disp-formula id="E37"><label>(A8)</label><mml:math id="M66"><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo>&#x0002B;</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>This leads to an output activity of</p>
<disp-formula id="E38"><label>(A9)</label><mml:math id="M67"><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo>&#x0002B;</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:math></disp-formula>
<p>Also for this system there exists constraints defining if the output <italic>v</italic> is smaller than the input <italic>u</italic>:</p>
<disp-formula id="E39"><mml:math id="M68"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:mi>u</mml:mi></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msubsup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A10)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mi>u</mml:mi></mml:mtd><mml:mtd><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A11)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>Additionally, nullclines can be calculated for weights if the system consists of feed-forward inhibition motifs linked together in a feed-forward structure:</p>
<disp-formula id="E40"><label>(A12)</label><mml:math id="M69"><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>u</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mo>&#x003BA;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>e</mml:mi><mml:mi>q</mml:mi><mml:mi>u</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<sec>
<title>Feedback inhibition</title>
<p>The output activity <italic>v</italic> of the neuron is</p>
<disp-formula id="E41"><label>(A13)</label><mml:math id="M70"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:mtext>&#x02003;</mml:mtext><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>v</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo class="MathClass-rel">&#x021D4;</mml:mo><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>and, thus, the dynamics of the excitatory weight is</p>
<disp-formula id="E42"><label>(A14)</label><mml:math id="M71"><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mi>u</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>The positive stable fixed point of this equation is</p>
<disp-formula id="E43"><label>(A15)</label><mml:math id="M72"><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt></mml:math></disp-formula>
<p>and the related output activity of this structure is</p>
<disp-formula id="E44"><label>(A16)</label><mml:math id="M73"><mml:mi>v</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mrow><mml:mn>4</mml:mn></mml:mrow></mml:mfrac></mml:mrow></mml:msqrt><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>The constraints of this system for having a smaller output <italic>v</italic> than input <italic>u</italic> are</p>
<disp-formula id="E45"><mml:math id="M74"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:mi>u</mml:mi><mml:mo class="MathClass-rel">&#x02264;</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>a</mml:mi><mml:mi>x</mml:mi></mml:mrow></mml:msubsup></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A17)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mi>u</mml:mi><mml:mo class="MathClass-rel">&#x02265;</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>4</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x003BA;</mml:mi></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>m</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A18)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>Additionally, for the weight the nullcline is</p>
<disp-formula id="E46"><label>(A19)</label><mml:math id="M75"><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>E</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msqrt><mml:mrow><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>u</mml:mi></mml:mrow></mml:mfrac><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:mo>&#x003BA;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>I</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:msqrt><mml:mo class="MathClass-rel">&#x02261;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>b</mml:mi><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mi>e</mml:mi><mml:mi>q</mml:mi><mml:mi>u</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
</sec>
</sec>
<sec>
<title>Calculations for Bi-directional and N-ring recurrences</title>
<p>A bi-directional system can be written as</p>
<disp-formula id="E47"><mml:math id="M76"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;</mml:mtext><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x02003;</mml:mtext><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>For the stability conditions, <italic>v</italic><sub>2</sub> is inserted into <italic>v</italic><sub>1</sub> and <italic>v</italic><sub>1</sub> into <italic>v</italic><sub>2</sub> resulting in</p>
<disp-formula id="E48"><mml:math id="M77"><mml:mtable columnalign="right center left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A20)</mml:mtext></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd><mml:mtd class="eqnarray-4"><mml:mtext class="eqnarray">(A21)</mml:mtext></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>This leads to the following weight equations</p>
<disp-formula id="E49"><mml:math id="M78"><mml:mtable><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo>,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo>,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mover class="msup"><mml:mrow><mml:mo class="MathClass-op">=</mml:mo></mml:mrow><mml:mrow><mml:mo class="MathClass-punc">!</mml:mo></mml:mrow></mml:mover><mml:mspace width="0.3em" class="thinspace"/><mml:mn>0</mml:mn></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mi>&#x003BC;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo>,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo>,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003BA;</mml:mi></mml:mrow><mml:mrow><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup></mml:mrow></mml:mfenced><mml:mover class="msup"><mml:mrow><mml:mo class="MathClass-op">=</mml:mo></mml:mrow><mml:mrow><mml:mo class="MathClass-punc">!</mml:mo></mml:mrow></mml:mover><mml:mspace width="0.3em" class="thinspace"/><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>Although these equations can be solved, the solutions are complex expressions for &#x003C9;<sub>1,2</sub> and &#x003C9;<sub>2,1</sub> which are hard to interpret. However, the activity <italic>v</italic>1 of neuron 1 is larger than in a feed-forward network with the same input. On the other hand, given parameters &#x003BC;&#x02009;&#x0003D;&#x02009;0.01, &#x003B3;&#x02009;&#x0003D;&#x02009;0.005, &#x02111;&#x02009;&#x0003D;&#x02009;0.065, and <italic>v<sub>T</sub></italic>&#x02009;&#x0003D;&#x02009;0.01 the activity <italic>v</italic><sub>1</sub>&#x02009;&#x0003D;&#x02009;0.0746&#x02009;&#x0003E;&#x02009;&#x02111; is still smaller than for the self-connected neuron (<italic>v</italic>&#x02009;&#x0003D;&#x02009;0.1503). The activity of neuron 2 for these parameters is also larger than the activity of the second neuron in the feed-forward network (<italic>v</italic><sub>2</sub>&#x02009;&#x0003D;&#x02009;0.0343&#x02009;&#x0003E;&#x02009;0.0290&#x02009;&#x0003D;&#x02009;<italic>v<sup>k</sup>&#x0003D;1</italic>). This can also be shown by an approximation of <inline-formula><mml:math id="M28"><mml:mrow><mml:msub><mml:mrow><mml:mover accent="true"><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mo>.</mml:mo></mml:mover></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">,</mml:mo></mml:mrow></mml:math></inline-formula> thereby neglecting all terms of order <inline-formula><mml:math id="M29"><mml:mrow><mml:mi>&#x003B8;</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> and higher as they are small (&#x003C9;<sub><italic>i</italic></sub>&#x02009;&#x0003C;&#x02009;1) anyhow:</p>
<disp-formula id="E50"><mml:math id="M79"><mml:mtable columnalign="right"><mml:mtr><mml:mtd><mml:mfrac><mml:mrow><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:mn>1</mml:mn><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo>,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo>,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfenced></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mfenced separators="" open="(" close=")"><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-bin">-</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mrow></mml:mfenced><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo class="MathClass-rel">&#x021D4;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">-</mml:mo><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:mn>2</mml:mn><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mstyle class="text"><mml:mtext>without</mml:mtext></mml:mstyle><mml:mspace width="2.77695pt" class="tmspace"/><mml:mi>&#x003B8;</mml:mi><mml:mrow><mml:mo class="MathClass-open">(</mml:mo><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mn>3</mml:mn></mml:mrow></mml:msubsup></mml:mrow><mml:mo class="MathClass-close">)</mml:mo></mml:mrow><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-rel">&#x021D2;</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-bin">-</mml:mo><mml:mi>&#x02111;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msubsup><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x0002B;</mml:mo><mml:mi>&#x003BA;</mml:mi><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msup><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>0</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The only stable weight from this approximation that is positive is equal to the feed-forward weight &#x003C9;<italic>ff</italic> (equation 1) with input &#x02111; and <italic>N</italic>&#x02009;&#x0003D;&#x02009;1 (equation 8). Thus, the activity <italic>v</italic><sub>2</sub> of neuron 2 is approximately</p>
<disp-formula id="E51"><label>(A22)</label><mml:math id="M80"><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x0003E;</mml:mo><mml:msup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mspace width="0.3em" class="thinspace"/><mml:mo class="MathClass-punc">,</mml:mo><mml:mspace width="1em" class="quad"/><mml:mstyle class="text"><mml:mtext>as</mml:mtext></mml:mstyle><mml:mspace width="2.77695pt" class="tmspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-punc">,</mml:mo><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup><mml:mo class="MathClass-rel">&#x0003C;</mml:mo><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>Furthermore, the activity of the first neuron receiving external input is approximately</p>
<disp-formula id="E52"><label>(A23)</label><mml:math id="M81"><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>b</mml:mi><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>Therefore, bi-directional connections increase the activity compared to feed-forward networks. As stated in the main text, this fact does not depend on the position of the bi-directional structure within the feed-forward network. The second neuron can be part of the feed-forward network, but it can also be outside of the layered structure.</p>
<p>For an <italic>N</italic>-ring with <italic>N</italic> neurons the stability conditions for the activities are</p>
<disp-formula id="E53"><mml:math id="M82"><mml:mtable columnalign="left"><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>N</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>N</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mo class="MathClass-punc">.</mml:mo><mml:mo class="MathClass-punc">.</mml:mo><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:mfrac><mml:mrow><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>N</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>The weight &#x003C9;<sub>2,1</sub> can be again approximated by &#x003C9;<italic><sup>ff</sup></italic> if weight-dependencies of order three or even higher are neglected. Thus, the activity of neuron 1 is approximately</p>
<disp-formula id="E54"><label>(A24)</label><mml:math id="M83"><mml:msubsup><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:mo class="MathClass-rel">=</mml:mo><mml:msub><mml:mrow><mml:mi>v</mml:mi></mml:mrow><mml:mrow><mml:mi>n</mml:mi><mml:mi>r</mml:mi></mml:mrow></mml:msub><mml:mo class="MathClass-rel">&#x02248;</mml:mo><mml:mfrac><mml:mrow><mml:mi>&#x02111;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-bin">-</mml:mo><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>N</mml:mi></mml:mrow></mml:msub><mml:mspace width="0.3em" class="thinspace"/><mml:msubsup><mml:mrow><mml:mi>&#x003A0;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-rel">=</mml:mo><mml:mn>3</mml:mn></mml:mrow><mml:mrow><mml:mi>N</mml:mi></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo class="MathClass-punc">,</mml:mo><mml:mi>i</mml:mi><mml:mo class="MathClass-bin">-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo class="MathClass-bin">&#x022C5;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x003C9;</mml:mi></mml:mrow><mml:mrow><mml:mi>f</mml:mi><mml:mi>f</mml:mi></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo class="MathClass-punc">.</mml:mo></mml:math></disp-formula>
<p>As all weights should be smaller than one, <italic>v<sub>nr</sub></italic> is larger than the activity in feed-forward networks. This relation holds independent of the length (number of neurons <italic>N</italic>) of the ring structure.</p>
</sec>
</app>
</app-group>
<ack>
<p>The research leading to these results has received funding from the European Community&#x02019;s Seventh Framework Program FP7/2007-2013 (Specific Program Cooperation, Theme 3, Information and Communication Technologies) under grant agreement no. 270273, Xperience (Florentin W&#x000F6;rg&#x000F6;tter), by the Federal Ministry of Education and Research (BMBF) by grants to the Bernstein Center for Computational Neuroscience (BCCN) &#x02013; G&#x000F6;ttingen, grant number 01GQ1005A, projects D1 and D2 (Florentin W&#x000F6;rg&#x000F6;tter) and 01GQ1005B, project B3 (Marc Timme), by the Max Planck Research School for Physics of Biological and Complex Systems (Christian Tetzlaff).</p>
</ack>
<ref-list>
<title>References</title>
<ref id="B1"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Abbott</surname> <given-names>L. F.</given-names></name> <name><surname>Nelson</surname> <given-names>S. B.</given-names></name></person-group> (<year>2000</year>). <article-title>Synaptic plasticity: taming the beast</article-title>. <source>Nat. Neurosci.</source> <volume>3</volume>(<issue>Suppl.</issue>), <fpage>1178</fpage>&#x02013;<lpage>1183</lpage>.<pub-id pub-id-type="doi">10.1038/78829</pub-id><pub-id pub-id-type="pmid">11127835</pub-id></citation></ref>
<ref id="B2"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Bi</surname> <given-names>G. Q.</given-names></name> <name><surname>Poo</surname> <given-names>M. M.</given-names></name></person-group> (<year>1998</year>). <article-title>Synaptic modifications in cultured hippocampal neurons: dependence on spike timing, synaptic strength, and postsynaptic cell type</article-title>. <source>J. Neurosci.</source> <volume>18</volume>, <fpage>10464</fpage>&#x02013;<lpage>10472</lpage>.<pub-id pub-id-type="pmid">9852584</pub-id></citation></ref>
<ref id="B3"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Bienenstock</surname> <given-names>E. L.</given-names></name> <name><surname>Cooper</surname> <given-names>L. N.</given-names></name> <name><surname>Munro</surname> <given-names>P. W.</given-names></name></person-group> (<year>1982</year>). <article-title>Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex</article-title>. <source>J. Neurosci.</source> <volume>2</volume>, <fpage>32</fpage>&#x02013;<lpage>48</lpage>.<pub-id pub-id-type="pmid">7054394</pub-id></citation></ref>
<ref id="B4"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Caporale</surname> <given-names>N.</given-names></name> <name><surname>Dan</surname> <given-names>Y.</given-names></name></person-group> (<year>2008</year>). <article-title>Spike timing-dependent plasticity: a hebbian learning rule</article-title>. <source>Annu. Rev. Neurosci.</source> <volume>31</volume>, <fpage>25</fpage>&#x02013;<lpage>46</lpage>.<pub-id pub-id-type="doi">10.1146/annurev.neuro.31.060407.125639</pub-id><pub-id pub-id-type="pmid">18275283</pub-id></citation></ref>
<ref id="B5"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Cutsuridis</surname> <given-names>V.</given-names></name> <name><surname>Wennekers</surname> <given-names>T.</given-names></name></person-group> (<year>2009</year>). <article-title>Hippocampus, microcircuits and associative memory</article-title>. <source>Neural Netw.</source> <volume>22</volume>, <fpage>1120</fpage>&#x02013;<lpage>1128</lpage>.<pub-id pub-id-type="doi">10.1016/j.neunet.2009.07.006</pub-id><pub-id pub-id-type="pmid">19647982</pub-id></citation></ref>
<ref id="B6"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Dudai</surname> <given-names>Y.</given-names></name></person-group> (<year>2004</year>). <article-title>The neurobiology of consolidation, or, how stable is the engram?</article-title> <source>Annu. Rev. Psychol.</source> <volume>55</volume>, <fpage>51</fpage>&#x02013;<lpage>86</lpage>.<pub-id pub-id-type="doi">10.1146/annurev.psych.55.090902.142050</pub-id><pub-id pub-id-type="pmid">14744210</pub-id></citation></ref>
<ref id="B7"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Gerstner</surname> <given-names>W.</given-names></name> <name><surname>Kistler</surname> <given-names>W. M.</given-names></name></person-group> (<year>2002</year>). <article-title>Mathematical formulations of Hebbian learning</article-title>. <source>Biol. Cybern.</source> <volume>87</volume>, <fpage>404</fpage>&#x02013;<lpage>415</lpage>.<pub-id pub-id-type="doi">10.1007/s00422-002-0353-y</pub-id><pub-id pub-id-type="pmid">12461630</pub-id></citation></ref>
<ref id="B8"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Haas</surname> <given-names>J.</given-names></name> <name><surname>Nowotny</surname> <given-names>T.</given-names></name> <name><surname>Abarbenel</surname> <given-names>H. D. I.</given-names></name></person-group> (<year>2006</year>). <article-title>Spike-timing-dependent plasticity of inhibitory synapses in the entorhinal cortex</article-title>. <source>J. Neurophysiol.</source> <volume>96</volume>, <fpage>3305</fpage>&#x02013;<lpage>3313</lpage>.<pub-id pub-id-type="doi">10.1152/jn.00551.2006</pub-id><pub-id pub-id-type="pmid">16928795</pub-id></citation></ref>
<ref id="B9"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Hahnloser</surname> <given-names>R.</given-names></name> <name><surname>Kozhevnikov</surname> <given-names>A.</given-names></name> <name><surname>Fee</surname> <given-names>M.</given-names></name></person-group> (<year>2002</year>). <article-title>An ultra-sparse code underlies the generation fo neural sequences in a songbird</article-title>. <source>Nature</source> <volume>419</volume>, <fpage>65</fpage>&#x02013;<lpage>70</lpage>.<pub-id pub-id-type="doi">10.1038/nature00974</pub-id><pub-id pub-id-type="pmid">12214232</pub-id></citation></ref>
<ref id="B10"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Harris</surname> <given-names>K.</given-names></name> <name><surname>Csiscvari</surname> <given-names>J.</given-names></name> <name><surname>Hirase</surname> <given-names>H.</given-names></name> <name><surname>Dragoi</surname> <given-names>G.</given-names></name> <name><surname>Buzsaki</surname> <given-names>G.</given-names></name></person-group> (<year>2003</year>). <article-title>Organization of cell assemblies in the hippocampus</article-title>. <source>Nature</source> <volume>424</volume>, <fpage>552</fpage>&#x02013;<lpage>556</lpage>.<pub-id pub-id-type="doi">10.1038/nature01834</pub-id><pub-id pub-id-type="pmid">12891358</pub-id></citation></ref>
<ref id="B11"><citation citation-type="book"><person-group person-group-type="author"><name><surname>Hebb</surname> <given-names>D. O.</given-names></name></person-group> (<year>1949</year>). <source>The Organization of Behaviour</source>. <publisher-loc>New York</publisher-loc>: <publisher-name>Wiley</publisher-name>.</citation></ref>
<ref id="B12"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Lansner</surname> <given-names>A.</given-names></name></person-group> (<year>2009</year>). <article-title>Associative memory models: from the cell-assembly theory to biophysically detailed cortex simulations</article-title>. <source>Trends Neurosci.</source> <volume>32</volume>, <fpage>178</fpage>&#x02013;<lpage>186</lpage>.<pub-id pub-id-type="doi">10.1016/j.tins.2008.12.002</pub-id><pub-id pub-id-type="pmid">19187979</pub-id></citation></ref>
<ref id="B13"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Miller</surname> <given-names>K. D.</given-names></name> <name><surname>MacKay</surname> <given-names>D. J. C.</given-names></name></person-group> (<year>1994</year>). <article-title>The role of constraints in Hebbian learning</article-title>. <source>Neural Comput.</source> <volume>6</volume>, <fpage>100</fpage>&#x02013;<lpage>126</lpage>.<pub-id pub-id-type="doi">10.1162/neco.1994.6.1.100</pub-id></citation></ref>
<ref id="B14"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Mongillo</surname> <given-names>G.</given-names></name> <name><surname>Barak</surname> <given-names>O.</given-names></name> <name><surname>Tsodyks</surname> <given-names>M.</given-names></name></person-group> (<year>2008</year>). <article-title>Synaptic theory of working memory</article-title>. <source>Science</source> <volume>319</volume>, <fpage>1543</fpage>&#x02013;<lpage>1546</lpage>.<pub-id pub-id-type="doi">10.1126/science.1150769</pub-id><pub-id pub-id-type="pmid">18339943</pub-id></citation></ref>
<ref id="B15"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Morrison</surname> <given-names>A.</given-names></name> <name><surname>Aertsen</surname> <given-names>A.</given-names></name> <name><surname>Diesmann</surname> <given-names>M.</given-names></name></person-group> (<year>2007</year>). <article-title>Spike-timing-dependent plasticity in balanced random networks</article-title>. <source>Neural Comput.</source> <volume>19</volume>, <fpage>1437</fpage>&#x02013;<lpage>1467</lpage>.<pub-id pub-id-type="doi">10.1162/neco.2007.19.1.47</pub-id><pub-id pub-id-type="pmid">17444756</pub-id></citation></ref>
<ref id="B16"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Oja</surname> <given-names>E.</given-names></name></person-group> (<year>1982</year>). <article-title>A simplified neuron model as a principal component analyzer</article-title>. <source>J. Math. Biol.</source> <volume>15</volume>, <fpage>267</fpage>&#x02013;<lpage>273</lpage>.<pub-id pub-id-type="doi">10.1007/BF00275687</pub-id><pub-id pub-id-type="pmid">7153672</pub-id></citation></ref>
<ref id="B17"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Tetzlaff</surname> <given-names>C.</given-names></name> <name><surname>Kolodziejski</surname> <given-names>C.</given-names></name> <name><surname>Timme</surname> <given-names>M.</given-names></name> <name><surname>W&#x000F6;rg&#x000F6;tter</surname> <given-names>F.</given-names></name></person-group> (<year>2011</year>). <article-title>Synaptic scaling in combination with many generic plasticity mechanisms stabilizes circuit connectivity</article-title>. <source>Front Comput. Neurosci.</source> <volume>5</volume>:<fpage>47</fpage>.<pub-id pub-id-type="doi">10.3389/fncom.2011.00047</pub-id></citation></ref>
<ref id="B18"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Turrigiano</surname> <given-names>G. G.</given-names></name> <name><surname>Leslie</surname> <given-names>K. R.</given-names></name> <name><surname>Desai</surname> <given-names>N. S.</given-names></name> <name><surname>Rutherford</surname> <given-names>L. C.</given-names></name> <name><surname>Nelson</surname> <given-names>S. B.</given-names></name></person-group> (<year>1998</year>). <article-title>Activity-dependent scaling of quantal amplitude in neocortical neurons</article-title>. <source>Nature</source> <volume>391</volume>, <fpage>892</fpage>&#x02013;<lpage>896</lpage>.<pub-id pub-id-type="doi">10.1038/36103</pub-id><pub-id pub-id-type="pmid">9495341</pub-id></citation></ref>
<ref id="B19"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Turrigiano</surname> <given-names>G. G.</given-names></name> <name><surname>Nelson</surname> <given-names>S. B.</given-names></name></person-group> (<year>2000</year>). <article-title>Hebb and homeostasis in neuronal plasticity</article-title>. <source>Curr. Opin. Neurobiol.</source> <volume>10</volume>, <fpage>258</fpage>&#x02013;<lpage>364</lpage>.<pub-id pub-id-type="doi">10.1016/S0959-4388(00)00091-X</pub-id></citation></ref>
<ref id="B20"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Turrigiano</surname> <given-names>G. G.</given-names></name> <name><surname>Nelson</surname> <given-names>S. B.</given-names></name></person-group> (<year>2004</year>). <article-title>Homeostatic plasticity in the developing nervous system</article-title>. <source>Nat. Rev. Neurosci.</source> <volume>5</volume>, <fpage>97</fpage>&#x02013;<lpage>107</lpage>.<pub-id pub-id-type="doi">10.1038/nrn1327</pub-id><pub-id pub-id-type="pmid">14735113</pub-id></citation></ref>
<ref id="B21"><citation citation-type="journal"><person-group person-group-type="author"><name><surname>Woodin</surname> <given-names>M.</given-names></name> <name><surname>Ganguly</surname> <given-names>K.</given-names></name> <name><surname>Poo</surname> <given-names>M. M.</given-names></name></person-group> (<year>2003</year>). <article-title>Coincident pre- and postsynaptic activity modifies GABAergic synapses by postsynaptic changes in Cl<sup>&#x02212;</sup> transporter activity</article-title>. <source>Neuron</source> <volume>39</volume>, <fpage>807</fpage>&#x02013;<lpage>820</lpage>.<pub-id pub-id-type="doi">10.1016/S0896-6273(03)00507-5</pub-id><pub-id pub-id-type="pmid">12948447</pub-id></citation></ref>
</ref-list>
</back>
</article>