Статья 'Физическая информатика – новое синтетическое научное направление' - журнал 'Кибернетика и программирование' - NotaBene.ru
по
Меню журнала
> Архив номеров > Рубрики > О журнале > Авторы > О журнале > Требования к статьям > Редакция и редакционный совет > Порядок рецензирования статей > Политика издания > Ретракция статей > Этические принципы > Политика открытого доступа > Оплата за публикации в открытом доступе > Online First Pre-Publication > Политика авторских прав и лицензий > Политика цифрового хранения публикации > Политика идентификации статей > Политика проверки на плагиат
Журналы индексируются
Реквизиты журнала

ГЛАВНАЯ > Вернуться к содержанию
Кибернетика и программирование
Правильная ссылка на статью:

Физическая информатика – новое синтетическое научное направление

Гуревич Игорь Михайлович

кандидат технических наук

с.н.с., гл. конструктор , ИПИ РАН, ООО "ГЕТНЕТ Консалтинг"

119333, Москва, Вавилова, д.44, кор.2,
111024, г. Москва, Андроновское ш., д. 26, стр. 2


Gurevich Igor Mikhailovich

PhD in Technical Science

Senior Scientist, Chief Engineer, IPI RAN, Ltd. "HETNET Consulting"

119333, Moscow, Vavilova, d.44, kor.2,111024, g. Moscow, Andronovskoe sh., d. 26, str. 2

iggurevich@gmail.com

DOI:

10.7256/2306-4196.2013.3.9133

Дата направления статьи в редакцию:

18-05-2013


Дата публикации:

1-6-2013


Аннотация: Урсул А.Д. еще в 1968 году в книге «Природа информации. Философский очерк» предсказал, что «Методами теории информации будут изучаться свойства пространства и времени, чем до сих пор занимались в основном физические теории (например, специальная и общая теории относительности А.Эйнштейна). Взаимопроникновение физики и теории информации в ходе развития информатики сформировало синтетическую дисциплину «Физическая информатика». Гуревич И.М. (с 1989 по настоящее время) систематизирует знания по сложным системам, информационным методам их исследований на базе законов информатики и проводит исследования сложных систем на основе этих законов. Основными результатами автора являются: утверждение о существовании законов природы более общих, чем физические, – законов информатики, определяющих, ограничивающих физические явления и процессы и предшествующих физическим законам; формулировка законов информатики; оценка объема информации во Вселенной. Работы автора и зарубежных ученых обосновывают первичность информационных законов (законов информатики).


Ключевые слова:

физика, физические законы, информатика, информационные законы, информационные характеристики, информационная энтропия, дивергенция, совместная информационная энтропия, информация связи, дифференциальная информационная емкость

Abstract: Ursul A.D. in 1968 in the book "The Nature of information. Philosophical essay” predicted that the methods of information theory will study the properties of space and time, what is still mainly engaged in physical theories (eg, special and general theory of relativity, Einstein). Interpenetration of physics and information theory in the development of computer science formed a synthetic discipline " Physical Informatics". Since 1989 to the present day I. M. Gurevich systematizes knowledge of complex systems and information methods of their research based on the laws of Informatics and carries out research of complex systems on the basis of these laws. The main results of this author are: the statement of the existence of laws of nature more general than physical- Laws of Informatics, that define and limit physical phenomena and processes and are prior to physical laws; formulation of the Laws of Informatics; evaluation of the amount of information in the universe. Work of the author and foreign scholars justify the primacy of information law (Laws of Informatics).


Keywords:

divergence, information entropy, information characteristics, information laws, informatics, physical laws, physics, joint information entropy, information communication, differential information capacity

Немного истории

Многие выдающиеся ученые отмечали важность информации [1-43]. Дж. Уиллер [17]: «Моя жизнь в физике представляется мне разделенной на три периода. В первый из них, растянувшийся с начала моей карьеры и до начала 1950-х годов, я был захвачен идеей, что “Всё — это частицы”. Я искал способы выстроить все базовые элементы материи (нейтроны, протоны, мезоны и т. д.) из самых легких, наиболее фундаментальных частиц — электронов и фотонов. Второй период я называю “Всё — это поля”. Теперь же я захвачен новой идеей: “Всё — это информация” (1962); Э. Стин (2000) [15]«…необходимо определить несколько законов, схожих с законами сохранения энергии и момента, но используемых по отношению к информации и определяющих большую часть квантовой механики»; Б.Б. Кадомцев (1999) [16]: «При переходе к изучению все более сложных систем именно структурные, информационные аспекты их поведения и развития выступают на первый план, а динамика создает лишь основу для информационного развития. С учетом квантовых процессов в микромире картина развития мира становится еще более сложной и более богатой в смысле ее информационного поведения». Впервые анализ физических процессов с использованием информационных понятий провел А. Эйнштейн (1905) [5]. Л. Сциллард (1929) [6], анализируя мысленный эксперимент с "демоном Максвелла", показал, что энтропия, теряемая газом за счет разделения молекул на медленные и быстрые, в точности равна информации, получаемой "демоном Максвелла". И. Фон Нейман (1932) [8] ввел понятие квантовой энтропии. Энтропия Неймана чистого состояния по определению равна нулю, но физики, как правило, для описания и исследований квантовых систем используют эту энтропию. К. Шеннон (1948) [9] ввел понятие информационная энтропия. Информационная энтропия Шеннона определяемая в битах (натах) является универсальной мерой неопределенности (информации) в классических и квантовых системах.

Систематическое применение методов теории информации к анализу физических явлений и процессов было, по-видимому, впервые проведено Л. Бриллюэном (1960) [11]. «Мы введем теперь различие между двумя видами информации: 1) свободная информация (free information), возникающая, когда возможные случаи рассматриваются как абстрактные и не имеющие определенного физического значения; 2) связанная информация (bound information), возникающая, когда возможные случаи могут быть представлены как микросостояния физической системы». Л. Бриллюэн (1959) показал, что одна двоичная единица информации соответствует энергии равной постоянной Больцмана, умноженной на температуру и дал оценку объема информации, содержащейся в физическом законе.

Р. Пенроуз (1989) [12], С. Хокинг (2005) [13] и др. использовали информационный подход применительно к процессу образования черных дыр. «Может ли исчезать информация при образовании черной дыры? Куда она может исчезать? Черная дыра искажает проглоченную информацию, но все же не разрушает ее бесследно. В процессе испарения черной дыры информация вырывается из ее объятий». A. Zeilinger (1999) [14] выдвинул следующий принцип как возможный фундамент всей квантовой теории, представив две его формулировки: 1) элементарная система представляет истинностное значение одного суждения; 2) элементарная система несет один бит информации. С. Ллойд (2001) [22] выдвинул постулаты: 1) теорема Марголиса–Левитина [26]; 2) общее количество битов, доступных для обработки в системе, ограничено энтропией системы. 3) скорость перемещения информации ограничена скоростью света. Эти три предела применены для оценки способности Вселенной обрабатывать информацию. В частности, оценено и общее количество битов, доступных во Вселенной для вычисления, и число элементарных логических действий, которые могут быть выполнены на этих битах за время существования Вселенной. Общее количество битов в материи – 1090 (результат автора, 1989г) [3]. S. Hsu и А. Zee (2005) [20], D. Scott и J. Zibin (2005) [21] обсуждают проблему представления послания Создателя неоднородностями реликтового излучения и оценивают объем послания. Они считают, что 105 бит информации могут быть закодированы в космическом микроволновом фоне.

Автор (с 1989 по настоящее время) [3, 44-51] систематизирует знания по сложным системам, информационным методам их исследований на базе законов информатики и проводит исследования сложных систем на основе этих законов. Основными результатами автора являются: утверждение о существовании законов природы более общих, чем физические, – законов информатики, определяющих, ограничивающих физические явления и процессы и предшествующих физическим законам; формулировка законов информатики; оценка объема информации во Вселенной.

Количество ученых, использующих информационный подход и информационные методы в физических исследованиях, быстро возрастает. В начале 2010г. появилось много интересных работ, в том числе работы Erik Verlinde. Lee Smolin. N Jarmo Makela. Rong-Gen Caia, Li-Ming Caob, and Nobuyoshi Ohta. Lorenzo Maccone [52-56].

Работы автора и зарубежных ученых подтверждают первичность информационных законов (законов информатики).

Определение и характеристики информации

Наряду с материей и энергией Вселенная содержит, включает в себя и информацию. Основополагающий принцип квантовой механики постулирует, что элементарная физическая система несет один бит информации. Информация – это устойчивая определенное время неоднородность: «Под информацией мы будем понимать устойчивые определенное время неоднородности произвольной физической природы. Тем самым, буква в книге, атом, молекула, элементарная частица, звезда, чертеж, рисунок, вспаханное поле, лес и другие неоднородности содержат и несут информацию» [3]. Классы неоднородностей: физические, химические, биологические, геологические, технические, социальные, экономические.

Универсальной мерой физической неоднородности является информационная энтропия по определению Шеннона [9] (энтропия по определению Неймана [8] не может использоваться в качестве меры неоднородности, поскольку она равна нулю для имеющего структуру чистого состояния), что приводит к необходимости использования информационных методов исследования как самой информации, так и связанных с нею материи и энергии. Использование такого подхода позволяет получить новые, порой более общие результаты, по отношению к сведениям, получаемым на основе только физических законов.

Урсул А.Д. еще в 1968 году в книге «Природа информации. Философский очерк» [1] дал близкое к вышеизложенному определение информации: «…во-первых, информация связана с разнообразием, различием, во-вторых, с отражением. В соответствии с этим ее можно определить в самом общем случае как отраженное разнообразие. Информация – это разнообразие, которое один объект содержит о другом объекте (в процессе их взаимодействия)... Но информация может рассматриваться и как разнообразие, которое является как бы результатом отражения объектом самого себя, т.е. самоотражения. …информация выражает свойство материи, которое является всеобщим… Понятие информации отражает как объективно-реальное, не зависящее от субъекта свойство объектов неживой и живой природы, общества, так и свойства познания, мышления… Информация, таким образом, присуща как материальному, так и идеальному. Она применима и к характеристике материи, и к характеристике сознания. Если объективная информация может считаться свойством материи, то идеальная, субъективная информация есть отражение объективной, материальной информации». «В.М. Глушков в ряде работ характеризует информацию как меру неоднородности в распределении энергии (или вещества) в пространстве и во времени… Информация существует постольку, поскольку существуют материальные тела и, следовательно, созданные им неоднородности». Интересно, что в своей книге Урсул А.Д. отметил, что «Неоднородность – это иное выражение вид разнообразия».

«Методами теории информации будут изучаться свойства пространства и времени, чем до сих пор занимались в основном физические теории (например, специальная и общая теории относительности А.Эйнштейна). Итак, физика и теория информации взаимно проникают друг в друга, что, в общем, ведет к созданию двух основных синтетических дисциплин – особой прикладной теории информации (а скорее всего, ряда еe ветвей - термодинамической, квантовой) и информационной физики».

Классы неоднородностей: физические, химические, биологические, геологические, технические, социальные, экономические. Универсальной мерой физической неоднородности является информационная энтропия по определению Шеннона. Это приводит к необходимости использования информационных методов исследования как самой информации, так и связанных с нею материи и энергии. Использование такого подхода позволяет получить новые, порой более общие результаты, по отношению к сведениям, получаемым на основе только физических законов.

Информационная энтропия – характеристика наблюдаемых и состояний квантовых систем, мера сложности систем. На физических системах естественным образом определяется информационная энтропия. Согласно квантовой механике система, находящаяся в чистом состоянии, описывается волновой функцией или амплитудой вероятности, квадраты модулей которых определяют вероятность реализации ее состояний, а система, находящаяся в смешанном состоянии, описывается набором волновых функций или амплитуд вероятности, заданных с определенными вероятностями.

Единицы измерения информации. Объем информации Iизмеряется в битах (двоичных единицах). Для системы с n равновероятными состояниями объем информации, получаемой при реализации одной из альтернатив, равен логарифму числа состояний, в которых может находиться система I = log2 n. Один бит – объем информации получаемой при реализации одной из двух равновероятных альтернатив: 1 бит = log2 2. Объем информации измеряется в безразмерных величинах.

Связь информации с энтропией, энергией, массой. Физическая энтропия S пропорциональна логарифму числа микросостояний, в которых может находиться система S = k ln P. k= 1,38 10-16 эрг/K = 1,38 10-23 Дж/К – постоянная Больцмана; а P – статистический вес (число микросостояний). Если система имеет 2 состояния, то энтропия системы равна S = k ln 2= 1,38 10-16 ln 2 эрг/K = 1,38 10-23 ln 2 Дж/К.

Объем информации в системе из двух равновероятных состояний в информационных единицах равен одному биту, а в единицах энтропии равен постоянной Больцмана, умноженной на ln 2]. В общем случае энтропия системы, содержащей I бит информации, равна постоянной Больцмана, умноженной на I ln 2: S = k I ln 2.

Энергия, требуемая для передачи, чтения, записи одного бита при температуре T, не может быть меньше величины Emin = kT ln2. Соответственно, учитывая формулу Эйнштейна, масса, требуемая для передачи, чтения или записи одного бита при температуре T, не может быть меньше величины Mmin= (kT ln2)/c2.

Микроинформация и макроинформация. Д.С. Чернавский [27], развивая и уточняя идеи Бриллюена [11], различает макроинформацию (классическую информацию) и микроинформацию. Макроинформация есть запомненный выбор одного варианта из нескольких возможных и равноправных. Микроинформация есть выбор не запоминаемый. «Микроинформация существенно отличается от макроинформации, поскольку она не имеет важного для информации свойства фиксируемости, ибо незапоминаема. Макроинформация существенно отличается от микроинформации не только качественно, но и количественно. Это ясно, если вернуться от энтропийных к обычным единицам измерения информации – битам: Iмикро = - (DS/k)log2e = - 1,44 DS/k, гдеIмикро- огромное число, ибо k = 1,38 10-23 Дж/К (DS < 0). Iмaкро << - (DS/k) log2e. Вообще в реальной жизни, в частности, в биологии, всегда используется макроинформация. Любое изменение макроинформации, увеличение или уменьшение, сопровождается ростом энтропии, что естественно, поскольку эти процессы необратимы».

Приведем примеры физических систем, характеризующихся микроинформацией – не запоминаемой и не воспроизводимой информацией. Микроинформацию содержат пространственное положение частиц (атомов, молекул, ионов) в газе, жидкости, относительное пространственное положение электронов в атоме, относительное пространственное положение электронов в металлах. Важной (но не единственной) мерой микроинформации является термодинамическая энтропия.

Приведем примеры физических систем, содержащих макроинформацию (классическую информацию) – запоминаемую, воспроизводимую информацию. Макроинформацию содержат протон (в кварках и структуре), атомы (в протонах, нейтронах и электронах и структуре), молекулы (в атомах и структуре), ДНК (в молекулах и структуре), РНК (в молекулах и структуре), белки (в молекулах и структуре), твердые тела (в составляющих и структуре).

Информационные модели и информационные законы являются содержательной интерпретацией математических выражений, формул, уравнений в информационной системе понятий, дающей объяснение результатам наблюдений. Информационные характеристики физических систем (например: объем информации в расширяющейся Вселенной, квадратичная зависимость информации в черной дыре от массы) исследуются с привлечением информационных методов. При этом используются известные, общепризнанные физические модели. Так как информационные характеристики физических систем связаны с физическими характеристиками, то при исследовании информационных характеристик одновременно исследуются физические характеристики (например: структура, излучение черной дыры, масса начальных неоднородностей Вселенной).

Информационная энтропия – характеристика наблюдаемых и состояний квантовых систем, мера сложности систем

Приведем определение неопределенности, введенное автором в 1989г. [3]. Внешняя неопределенность. Согласно квантовой механике для системы, находящейся в чистом состоянии (описываемой волновой функцией или амплитудой вероятности), Система, находящаяся в чистом состоянии, имеет неопределенность наблюдаемой b, равную информационной энтропии Шеннона для непрерывных случайных величин. Как правило, внешняя неопределенность определяется на волновых функциях, зависящих от пространственно-временных координат.

Внутренняя неопределенность. Как правило, определяется на амплитудах вероятности в гильбертовых пространствах, описывающих состояние системы. Неопределенность (информация) наблюдаемой равна информационной энтропии Шеннона для дискретных случайных величин. Неопределенность определяется состоянием, в котором находится система и наблюдаемой, описывающей систему, причем, в общем случае, неопределенность разных наблюдаемых системы, находящейся в заданном состоянии, может быть различна. Если наблюдаемая фиксирована, то можно говорить о неопределенности состояния квантовой системы, как и в случае задания системы координат из априорных соображений.

Полная неопределенность системы равна сумме внешней и внутренней неопределенности.

Примечание. Информационная энтропия является оценкой неопределенности и информации. “Эта величина измеряет также количество неопределенности, содержащейся в этом эксперименте, т.е. количество неопределенности до бросания кости относительно того, каков будет его результат. Наконец, эта величина измеряет информацию, содержащуюся в этом эксперименте, или количество информации, получаемой в результате бросания. Тот факт, что случайность и неопределенность имеют естественную общую меру, неудивителен. Вследствие “формулы” прирост информации = устраненная неопределенность представляется разумным, что неопределенность и информация должны измеряться с помощью одной и той же функции” [28].

Примечание.В 1993г. Bennett C.H. c коллегами под названием «величина запутывания» ввели эту же информационную характеристику физических объектов [24-25]. В отличие от энтропии, используемой в статистической физике и характеризующей неопределенность состояний, в которых может находиться физическая система, информационная энтропия характеризует неопределенность конкретного состояния, точнее говоря, неопределенность наблюдаемой системы, находящейся в некотором состоянии. Во избежание неоднозначности терминологии, для обозначения свойства «неопределенность» и его количественной меры - информационной энтропии будем использовать один термин – «неопределенность». Введенное определение неопределенности придает широко используемому в квантовой механике понятию неопределенности точный информационный смысл. В качестве единицы измерения неопределенности, как правило, будем использовать бит, иногда, для удобства, натуральную единицу нат, равную 1,44 бит (1 бит 0,69 нат).

Взаимопроникновение физики и теории информации в ходе развития информатики сформировало синтетическую дисциплину «Физическая информатика». Данная научная дисциплина создана, в основном, в трудах автора [3, 44-51]. Показано, что информационные законы совместно с физическими законами могут служить эффективным инструментом познания физических систем и Вселенной в целом.

Физическая информатика. Основные результаты

Взаимосвязь между физическими и информационными характеристиками систем – массой, энергией, энтропией и информацией дает возможность использовать информационные оценки и методы исследования физических характеристик систем [3, 44-51].

Информационные законы имеют всеобщий, универсальный характер, действуют во всех возможных вселенных, даже во вселенных с разными физическими законами.

Среди результатов, полученных автором. отметим следующие:

  • Определение основных информационных характеристик неоднородностей (физических систем):

неопределенность (информация) и информационная дивергенция, наблюдаемых (наблюдаемой в квантовой механике называют любую физическую величину, которую можно измерить, причем результатами эксперимента обязательно должны являться действительные числа) и состояний (состояние физической системы определяется вектором в гильбертовом пространстве), характеризующая объем информации (информационную емкость) неоднородности;

совместная информационная энтропия, характеризующая унитарные преобразования;

информация связи, характеризующая взаимодействие физических систем;

дифференциальная информационная емкость материи.

  • Информационные законы природы (законы информатики),
  • Методика оценки объема неопределенности (информации) в физических объектах.
  • Из информационных предпосылок определена необходимость описания физических систем (квантовой механики) неклассической вероятностной логикой.
  • определен вид гравитационного потенциала , напряженности гравитационного поля .
  • Показано, что законы информатики определяют действие физических законов сохранения (энергии, импульса, момента импульса).
  • Показана необратимость времени.
  • Открыто существование нескольких типов материи с разной зависимостью объема информации от массы (в том числе, линейная для обычного вещества , квадратичная для черных дыр , линейно-логарифмическая для нейтронных дыр и белых карликов ).
  • Показано существование пятого типа взаимодействия – информационного взаимодействия.
  • Показано, что квантовую систему можно представить в виде системы виде прямой суммы тензорных произведений q-битов
  • Показано, что для формирования фундаментальных частиц необходимо не менее 6 q-битов.
  • Оценки совместной энтропии по разным независимым экспериментальным данным, характеризующей матрицы смешивания электрослабого взаимодействия близки к оценкам совместной энтропии матриц смешивания кварков. Это свидетельствует о единой информационной и физической природе сильного и электрослабого взаимодействия.
  • Даны прямые оценки объема информации в физических системах.
  • Оценки объемов информации в фундаментальных и элементарных частицах, атомах, молекулах, газах, жидкостях, твердых телах.
  • Разработаны информационные модели космологических объектов (черных дыр, нейтронных звезд, белых карликов, звезд солнечного типа).
  • Выведена формула Хокинга для черных дыр (информационный спектр излучения).
  • Получены информационные ограничения на образование и слияние черных дыр.
  • Выведена формула для информационного спектра излучения нейтронных звезд и белых карликов.
  • Открыто существование и исследованы характеристики оптимальных черных дыр (минимизирующих объем информации в областях Вселенной, Вселенной в целом).
  • Дана оценка массы начальных неоднородностей Вселенной.
  • Показано, что расширение Вселенной является причиной и источником формирования информации, причем разнообразные физические процессы в расширяющейся Вселенной обеспечивают формирование информации.
  • Показано, что объем информации, формирующейся в системе отсчета, движущейся с ускорением, равен . Обратим внимание на аналогию с эффектом УНРУ. Появление теплового излучения в ускоряющейся системе отсчёта при отсутствии этого излучения в инерциальной системе отсчёта есть появление дополнительной информации в ускоряющейся системе отсчёта.
  • Даны оценки основных информационных характеристик Вселенной, в том числе, максимально и минимально возможного, текущего объемов информации во Вселенной,
  • Показано, что во всех возможных Вселенных действуют законы информатики и тем самым физические законы сохранения.
  • Показано, что наряду с физическими мировыми константами существуют информационные мировые константы: информационная граница (information border, limit) IB = 1090 бит, постоянная памяти (constant memory) M = 1028 бит/кг, постоянная быстродействия (constant speed, performance) IS = 1039 (оп/с)/кг, постоянная информационных затрат (information costs) IC = 10-13 кг/бит.

Данные константы следует добавить в ряд мировых констант: постоянная Планка , гравитационная постоянная , скорость света , постоянная Больцмана , … Информационные мировые константы определяют процессы формирования и развития естественных и искусственных объектов. Достичь данных мировых констант при исследовании и создании информационных систем невозможно – это ограничения, которые необходимо учитывать, это пределы к которым необходимо стремиться.

  • Показано, что Вселенная с конечной информацией абсолютно познаваема.
  • Показана возможность и даны конструктивные предложения по сохранения разума при космических и планетных катаклизмах.
  • Поскольку неоднородности должны существовать во вселенных с любыми физическими законами, то подход, базирующийся на информационных характеристиках неоднородностей любой природы и соответствующие закономерности (законы информатики), распространяется на все возможные вселенные. Не означает ли это идентичность всех возможных вселенных или единственность Вселенной?

Актуальные задачи физической информатики

С учетом полученных результатов, в дополнение и в целях конкретизации задач, поставленных А.Д. Урсулом в 1968 году, перечислим актуальные задачи Физической информатики.

  • 1. Разработка информационных методов исследования физических систем. Развитие, уточнение законов информатики.
  • 2. Оценка информационных характеристик (информационной энтропии, информационной дивергенции, совместной информационной энтропии, информации связи, дифференциальной информационной емкости) физических, химических и биологических систем.
  • 3. Оценки объема информации в физических, химических и биологических системах.
  • 4. Вывод из законов информатики физических законов.
  • 5. Совместное использование законов сохранения энергии и сохранения неопределенности (информации) для расчетов характеристик физических систем и процессов.
  • 6. Изучение информационного взаимодействия физических систем.
  • 7. Формирование информационных ограничений на образование, развитие, взаимопревращение физических, химических и биологических систем.
  • 8. Изучение информационных характеристик квантовых компьютеров и квантовых вычислений.
  • 9. Формирование фундаментальных ограничений на характеристики информационных систем.
  • 10. Уточнение оценки объема информации, определяющего возникновение и развитие Вселенной. Уточнение массы неоднородности, содержащей эту информацию.
  • 11. Исследование расширения Вселенной как причины и источника формирования информации во Вселенной.
  • 12. Формирование ограничений на управление развитием Вселенной.
  • 13. Формирование ограничений на познаваемость Вселенной.
  • 14. Изучение способов формирования классической (запоминаемой, копируемой) информации во Вселенной.
  • 15. Анализ информационных характеристик внеземных цивилизаций.
  • 16. Определение характеристик минимального познающего субъекта.
  • 17. Исследование вопросов компактного представления знаний и сохранения накопленных цивилизацией знаний.
  • 18. Формирование информационных основ теории квантовой гравитации, «Теории Всего».
Заключение

Работы автора и зарубежных ученых (американских, канадских, европейских, китайских …) подтверждают первичность информационных законов.

  • Информационные законы (законы информатики) определяют и ограничивают физические законы.
  • Информационные законы (законы информатики) имеют всеобщий, универсальный характер, действуют во всех возможных вселенных, даже во вселенных с разными физическими законами.
  • Приведенные сведения показывают, что приоритет получения информационными методами физических результатов принадлежит России, хотя последние результаты зарубежных ученых очень интересны и важны.
  • Использование информационных законов (законов информатики) совместно с физическими законами позволит раскрыть все тайны природы, в частности, построить теорию квантовой гравитации.
Библиография
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
References
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
Ссылка на эту статью

Просто выделите и скопируйте ссылку на эту статью в буфер обмена. Вы можете также попробовать найти похожие статьи


Другие сайты издательства:
Официальный сайт издательства NotaBene / Aurora Group s.r.o.