<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="EDITORIAL" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Scientific and analytical journal «Vestnik Saint-Petersburg university of State fire service of EMERCOM of Russia»</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Scientific and analytical journal «Vestnik Saint-Petersburg university of State fire service of EMERCOM of Russia»</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Научно-аналитический журнал &quot;Вестник Санкт-Петербургского университета ГПС МЧС России&quot;</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="online">2218-130X</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">65958</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>ИНФОРМАТИКА, ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА И УПРАВЛЕНИЕ</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>INFORMATICS, COMPUTER ENGINEERING AND CONTROL</subject>
    </subj-group>
    <subj-group>
     <subject>ИНФОРМАТИКА, ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА И УПРАВЛЕНИЕ</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">ESTABLISHINGING NEURALNETWORK REGRESSION QUALITY USING STATISTICAL LEARNING THORY</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ОПРЕДЕЛЕНИЕ КАЧЕСТВА НЕЙРОСЕТЕВОЙ РЕГРЕССИИ  С ПОМОЩЬЮ СТАТИСТИЧЕСКОЙ ТЕОРИИ ОБУЧЕНИЯ</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Новиков</surname>
       <given-names>Егор Анатольевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Novikov</surname>
       <given-names>Egor A.</given-names>
      </name>
     </name-alternatives>
     <email>egoredmc@gmail.com</email>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Литвинов</surname>
       <given-names>Владислав Леонидович</given-names>
      </name>
      <name xml:lang="en">
       <surname>Litvinonv</surname>
       <given-names>Vladislav L.</given-names>
      </name>
     </name-alternatives>
     <email>vlad.litvinov61@gmail.com</email>
     <bio xml:lang="ru">
      <p>кандидат технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Санкт-Петербургский государственный университет телекоммуникаций имени проф. М. А. Бонч-Бруевича</institution>
    </aff>
    <aff>
     <institution xml:lang="en">The Bonch-Bruevich Saint-Petersburg State University of Telecommunications </institution>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2023-07-07T13:14:08+03:00">
    <day>07</day>
    <month>07</month>
    <year>2023</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2023-07-07T13:14:08+03:00">
    <day>07</day>
    <month>07</month>
    <year>2023</year>
   </pub-date>
   <volume>2023</volume>
   <issue>2</issue>
   <fpage>82</fpage>
   <lpage>90</lpage>
   <history>
    <date date-type="received" iso-8601-date="2023-04-01T00:00:00+03:00">
     <day>01</day>
     <month>04</month>
     <year>2023</year>
    </date>
    <date date-type="accepted" iso-8601-date="2023-04-20T00:00:00+03:00">
     <day>20</day>
     <month>04</month>
     <year>2023</year>
    </date>
   </history>
   <self-uri xlink:href="https://journals.igps.ru/en/nauka/article/65958/view">https://journals.igps.ru/en/nauka/article/65958/view</self-uri>
   <abstract xml:lang="ru">
    <p>Рассматривается задача восстановления регрессии в формулировке статистической теории обучения, то есть как задача минимизации эмпирического риска при заданных условиях. Показано, что нейронная сеть прямого распространения реализует принцип минимизации эмпирического риска при решении задачи регрессии. Исследуется возможность практического определения доверительного интервала для качества обучения нейронной сети.&#13;
Предложен способ оценки верхней границы доверительного интервала качества нейросетевой модели для всей функциональной зависимости, к которой строится регрессия. Показана практическая работоспособность данного способа, а именно, что реальное значение качества обучения нейронной сети меньше предлагаемой верхней границы доверительного интервала. Описываемый способ может найти применение при решении практических задач, требующих гарантированную оценку качества нейросетевой регрессии.&#13;
В качестве дальнейшего направления исследования предполагается уточнение методов оценки комбинаторной размерности нейронной сети, поскольку именно эта составляющая привносит наибольшую неточность при оценке границы доверительного интервала.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>Study considers regression estimation problem as it is posed in statistical learning theory, that is as empirical risk minimization problem. It is shown that feedforward neural network implements empirical risk minimization principle for regression estimation. The real worldpossibility &#13;
of establishing confidence interval for neural network learning quality is being examined.&#13;
Article proposes new method of establishing upper boundary of the neural network regression quality confidence interval for whole function. It is shown that real value of neural network learning quality is less than expected upper boundary of the neural network regression quality confidence interval, thus the functioning of proposed method is shown. Described way may be of great use in real world problems, which require assured estimation of neural network regression quality.&#13;
The directions of further research lies in finding more precise estimations for neural network VC-dimension, since that part brings the most inaccuracy in upper boundary establishing process.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>статистическая теория обучения</kwd>
    <kwd>минимизация эмпирического риска</kwd>
    <kwd>нейронные сети</kwd>
    <kwd>многослойный персептрон</kwd>
    <kwd>комбинаторная размерность</kwd>
    <kwd>VC-размерность</kwd>
    <kwd>качество обучения</kwd>
    <kwd>доверительный интервал</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>statistical learning theory</kwd>
    <kwd>empirical risk minimization</kwd>
    <kwd>neural network</kwd>
    <kwd>multilayer perceptron</kwd>
    <kwd>VC-dimension</kwd>
    <kwd>learning quality</kwd>
    <kwd>confidence interval</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Хайкин С. Нейронные сети: полный курс.: пер. с англ. М.: Изд. дом «Вильямс», 2006. 1104 с.</mixed-citation>
     <mixed-citation xml:lang="en">Hajkin S. Nejronnye seti: polnyj kurs.: per. s angl. M.: Izd. dom «Vil'yams», 2006. 1104 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Вапник В.Н. Восстановление зависимостей по эмпирическим данным. М.: Наука, 1979. 448 с.</mixed-citation>
     <mixed-citation xml:lang="en">Vapnik V.N. Vosstanovlenie zavisimostej po empiricheskim dannym. M.: Nauka, 1979. 448 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Du K.L., Swamy M.N.S. Neural Networks and Statistical Learning. London: Springer-Verlag, 2019. 998 p.</mixed-citation>
     <mixed-citation xml:lang="en">Du K.L., Swamy M.N.S. Neural Networks and Statistical Learning. London: Springer-Verlag, 2019. 998 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Stone M. Cross-validatory Choice and Assessment of Statistical Predictions // Journal of the Royal Statistical Society. 1974. № 36. P. 111-133.</mixed-citation>
     <mixed-citation xml:lang="en">Stone M. Cross-validatory Choice and Assessment of Statistical Predictions // Journal of the Royal Statistical Society. 1974. № 36. P. 111-133.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Khaki S., Nettleton D. Conformal Prediction Intervals for Neural Networks Using Cross Validation. 2020. URL: https://arxiv.org/abs/2006.16941v1 (дата обращения: 15.03.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Khaki S., Nettleton D. Conformal Prediction Intervals for Neural Networks Using Cross Validation. 2020. URL: https://arxiv.org/abs/2006.16941v1 (data obrashcheniya: 15.03.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Lower Upper Bound Estimation Method for Construction of Neural Network-Based Prediction Intervals / A. Khosravi [et al.] // IEEE Transactions on Neural Networks. 2011. № 22. P. 337-346.</mixed-citation>
     <mixed-citation xml:lang="en">Lower Upper Bound Estimation Method for Construction of Neural Network-Based Prediction Intervals / A. Khosravi [et al.] // IEEE Transactions on Neural Networks. 2011. № 22. P. 337-346.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Kivaranovic D., Johnson K.D., Leeb H. Adaptive, Distribution-Free Prediction Intervals for Deep Networks. 2020. URL: https://arxiv.org/pdf/1905.10634.pdf (дата обращения: 15.03.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Kivaranovic D., Johnson K.D., Leeb H. Adaptive, Distribution-Free Prediction Intervals for Deep Networks. 2020. URL: https://arxiv.org/pdf/1905.10634.pdf (data obrashcheniya: 15.03.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. М.: «Горячая линия - Телеком», 2006. 452 с.</mixed-citation>
     <mixed-citation xml:lang="en">Rutkovskaya D., Pilin'skij M., Rutkovskij L. Nejronnye seti, geneticheskie algoritmy i nechetkie sistemy. M.: «Goryachaya liniya - Telekom», 2006. 452 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B9">
    <label>9.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Поляк Б.Т. Введение в оптимизацию. М.: Наука, 1983. 384 с.</mixed-citation>
     <mixed-citation xml:lang="en">Polyak B.T. Vvedenie v optimizaciyu. M.: Nauka, 1983. 384 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B10">
    <label>10.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Вапник В.Н., Червоненкис А.Я. Теория распознавания образов (статистические проблемы обучения). М.: Наука, 1974. 416 с.</mixed-citation>
     <mixed-citation xml:lang="en">Vapnik V.N., Chervonenkis A.Ya. Teoriya raspoznavaniya obrazov (statisticheskie problemy obucheniya). M.: Nauka, 1974. 416 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B11">
    <label>11.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Вапник В.Н., Червоненкис А.Я. О равномерной сходимости частот появления событий к их вероятностям // Теория вероятностей и ее применения. 1971. № 2. C. 264-279.</mixed-citation>
     <mixed-citation xml:lang="en">Vapnik V.N., Chervonenkis A.Ya. O ravnomernoj skhodimosti chastot poyavleniya sobytij k ih veroyatnostyam // Teoriya veroyatnostej i ee primeneniya. 1971. № 2. C. 264-279.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B12">
    <label>12.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Vapnik V.N. Statistical Learning Theory. N.Y.: J. Wiley, 1998. 736 p.</mixed-citation>
     <mixed-citation xml:lang="en">Vapnik V.N. Statistical Learning Theory. N.Y.: J. Wiley, 1998. 736 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B13">
    <label>13.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Baum E.B., Haussler D. What Size Net Gives Valid Generalization? // Advances  in Neural Information Processing Systems. 1988. № 1. P. 81-90.</mixed-citation>
     <mixed-citation xml:lang="en">Baum E.B., Haussler D. What Size Net Gives Valid Generalization? // Advances in Neural Information Processing Systems. 1988. № 1. P. 81-90.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B14">
    <label>14.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Karpinski M., Macintyre A. Polynomial Bounds for VC Dimension of Sigmoidal and General Pfaffian Neural Networks // J. Computer Systems Science. 1997. № 54. P. 169-176.</mixed-citation>
     <mixed-citation xml:lang="en">Karpinski M., Macintyre A. Polynomial Bounds for VC Dimension of Sigmoidal and General Pfaffian Neural Networks // J. Computer Systems Science. 1997. № 54. P. 169-176.</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
