Translate this page:
Please select your language to translate the article


You can just close the window to don't translate
Library
Your profile

Back to contents

Philosophical Thought
Reference:

Quantum of knowledge and information as gnoseological issue

Sobolev Vladislav Evgen'evich

director for information technology at NTS-Komcentr Company

109147, Russia, Moscow, str. Nizhegorodskaya, 1A

qutrit@mail.ru
Other publications by this author
 

 

DOI:

10.7256/2409-8728.2016.6.19212

Received:

17-05-2016


Published:

07-06-2016


Abstract: The subject of this research is such hypothetical object as the quantum of knowledge, identified within the framework of this work with the quantum of information. Quantum of knowledge is being examined as a minimal volume of knowledge, which can be acquired by an object during the process of cognition of the surrounding world. The problem of existence of the quantum of knowledge is being analyzed in the context of modern perception of quantum physics, digital physics, cybernetics, and theory of information. The article discusses the properties of information as a theoretical object which defines the knowledge of a subject about the material and ideal essences. The main initial motive of the conducted research is the ideas of the modern quantum physics on the quantumness of the Universe and the existence of the minimal physical quantities (quanta). The author demonstrates that the need for existence of such object as the quantum of knowledge is a logical result of the quantumness of the Universe.  The author conducts a quantitative assessment of the minimal possible volume of space which can be viewed as a material carrier of the quantum of knowledge. The conclusion is made that the quantum of knowledge represents an infinite semantic multiplicity, in other words, it can have an infinite amount of possible conceptual interpretations.


Keywords:

gnoseology, epistemology, knowledge, quantum of knowledge, information, quantum of information, information theory, digital physics, quantum physics, quantum


В 1900 г. М. Планк впервые высказал гипотезу о том, что свет испускается минимальными дискретными порциями, неделимыми частицами, которые были названы квантами. Впоследствии квант электромагнитного поля получил название фотон. Развитие представлений о квантовой природе электромагнетизма привело к появлению квантовой физики, изучающей поведение материальных объектов на микроскопических масштабах [1]. По своей сути, квантовая парадигма восходит к концепции атомистического материализма [2].

Следствием дальнейшего развития квантовой физики стала разработка квантовой теории гравитации [3], в рамках которойпредполагается существование кванта гравитационного поля, поскольку, по аналогии с фотоном, являющимся переносчиком (квантом) электромагнитного взаимодействия, должен существовать и переносчик гравитационного взаимодействия, которое является одним из четырех известных фундаментальных физических взаимодействий [4] (наряду с электромагнитным, сильным и слабым). Гипотетический квант гравитационного поля принято называть гравитоном.

Два других известных в физике фундаментальных взаимодействия, сильное и слабое (ядерные взаимодействия), также осуществляются посредством обмена квантами. Переносчиками слабого взаимодействия являются векторные W- и Z-бозоны, а переносчиком сильного взаимодействия – глюон [5].

Таким образом, любое взаимодействие частиц осуществляется посредством обмена квантами соответствующего взаимодействия.

В квантовой физике существуют и кванты различных физических величин, известные как планковские величины [6]. Например, планковская длина это минимально возможная длина, т.е. объектов длиной меньше планковских существовать не может. Также известно планковское время время, за которое частица, двигаясь со скоростью света, преодолеет планковскую длину. В рамках современных физических представлений, на расстояниях меньше планковской длины или на промежутках времени меньших, чем планковское время, наблюдение каких-либо материальных объектов невозможно.

В последние десятилетия, наряду с активным развитием информационных технологий, развивается теория информации [7-10], основным объектом изучения которой является информация, а также законы, которым она подчиняется. Поскольку, согласно квантовой физике, взаимодействия частиц осуществляются посредством обмена квантами, то с позиций теории информации любое взаимодействие частиц можно рассматривать как обмен информацией посредством квантов. Развитие идеи о том, что в основе всех наблюдаемых физических явлений может лежать обмен информацией, привело к появлению принципиально нового научного направления, получившего название цифровая физика -[11-13]. В рамках этого направления Дж. Уилер сформулировал концепцию «Всё из бита» (англ. «It from bit») [11], которая постулирует первичность информации и вторичность материи и энергии. Согласно Уилеру, наблюдаемая физическая реальность имеет информационную основу, а материя и энергия возникают как результат интерпретации информации сознанием субъекта. В этом смысле подход Уилера по сути соответствует конструктивизму [14]. Таким образом, вследствие развития теории информации многовековой спор материалистов и идеалистов о том, что является первичным, а что вторичным – материя или сознание, – известный как «основной вопрос философии» [15], получил новую формулировку: теперь вопрос не только в соотношении понятий материя и сознание, но и в том, как материя и сознание соотносятся с информацией – что из этого является первичным, что вторичным, а что третичным.

Очевидно, что для ответа на поставленный вопрос необходимо прежде всего дать четкое определение самому понятию «информация». Надо отметить, что строгая дефиниция данного понятия сталкивается с заметными трудностями. В связи с этим Н. Винер предлагал следующее афористичное определение: «Информация – это не материя и не энергия, информация – это информация» [16]. Иначе говоря, информация не сводится ни к материи, ни к энергии, что фактически выводит это понятие за рамки традиционной физики. Вопрос о соотношении понятия информация с такими фундаментальными физическими понятиями, как материя и энергия одним из первых в СССР подробно рассматривал А. А. Ляпунов [17], отмечавший , что информация не подчиняется известным физическим законам, в частности законам сохранения [18].

В настоящее время однозначное и общепринятое определение понятия информация в науке отсутствует, и разные авторы предлагают существенно различные формулировки. Однако можно сказать, что большинство дефиниций, предлагаемых в рамках антропного принципа [19], сводятся к одной сути: для любого субъекта информация тождественна знанию. Иными словами, информация о каком-либо объекте представляет собой знание субъекта об этом объекте. Чем больше у субъекта информации об объекте, тем больше субъект о нем знает.

Представляет интерес вопрос о том, существует ли квант информации или квант знания, по аналогии с известными квантами физических взаимодействий, т.е. существует ли минимальный объем знания, который может получить субъект в процессе познания окружающего мира. Отметим, что с точки зрения кибернетики [16, 20] процесс познания может рассматриваться как получение сознанием субъекта информации и осуществление логических операций над полученной информацией в рамках процесса логического мышления. При этом мышление можно рассматривать как информационное взаимодействие, поскольку операции с информацией не сводятся к четырем известным фундаментальным физическим взаимодействиям. По своей сути, информационное взаимодействие – это пятый тип фундаментальных взаимодействий, не сводящийся ни к одному из известных физических взаимодействий материально-энергетических объектов. К информационным взаимодействиям можно отнести любые операции с информацией, в том числе любые логические и математические операции, поскольку при таких операциях происходит взаимодействие не материи, а информации. В этом смысле информационные взаимодействия можно интерпретировать как взаимодействия идеальных сущностей квантов информации (квантов знания) представленных посредством материальных переносчиков (в современной электронике такими переносчиками информации являются электроны и фотоны).

В 1948 г. К. Шеннон опубликовал работу [21], в которой впервые было использовано слово «бит»(bit) для обозначения наименьшей единицы количества информации. Бит равен количеству информации, содержащемуся в ответе на дихотомический вопрос, предусматривающий два равновероятных варианта ответа: «да» или «нет». По Шеннону, один бит информации уменьшает неопределенность об объекте исследования в два раза или, иначе говоря, вдвое уменьшает незнание субъекта об исследуемом объекте.

Можно ли назвать бит квантом информации, квантом знания? Проблема в таком определении заключается в том, что бит это условная минимальная единица измерения количества информации лишь в двоичной (бинарной) системе счисления (cамо слово «бит» является сокращением от англ. binary digit двоичная цифра). Именно двоичная система счисления и двоичная логика лежат в основе большинства современных компьютеров, машинный код которых использует бинарный алфавит из двух символов, условно представленных в виде цифр 1 и 0. Однако при переходе от двоичной к другим типам логик -[22-24]применяются уже другие минимальные единицы измерения количества информации. К примеру, в троичной (тернарной) логике такой минимальной единицей является трит (сокр. от англ. trinary digit). По аналогии с битом, один трит информации содержится в ответе на трихотомический вопрос, предполагающий получение одного из трех равновероятных ответов (в компьютере, основанном на троичной логике, их можно условно закодировать в виде трех цифр: 0, 1 и 2). Квантовыми аналогами бита и трита являются, соответственно, кубит (сокр. от англ. quantum bit) и кутрит (quantum trit). Эти «кванты информации» лежат в основе обмена информацией в квантовых компьютерах, работающих на квантовой логике [25, 26]. В качестве других минимальных единиц измерения количества информации в других системах кодирования используются, в частности, дит (сокр. от decimal digit англ. десятичная цифра), предполагающий получение одного из десяти равновероятных вариантов ответа, или, например, нат, выражающийся через натуральный логарифм, в отличие от других единиц измерения количества информации, у которых основание логарифма является целым числом.

Таким образом, в рамках разных систем кодирования применяются различные минимальные единицы измерения количества информации. Это означает, что в таком понимании квант информации или квант знания представляет собой относительную величину, зависящую от системы кодирования информации, используемой субъектом. Существует ли некая универсальная единица, квант знания, не ограниченный какой-либо одной системой кодирования? Очевидно, что для ответа на этот вопрос прежде всего необходимо четкое понимание того, что такое информация и в каком виде она может существовать.

Как уже отмечалось, с позиций антропного принципа информация тождественна знанию. Следовательно, информация присутствует в любом объекте, известном субъекту, как материальном, так и идеальном. Любое свойство, имманентное любому объекту это информация. Любое взаимодействие между любыми объектами это информация. Отсутствие взаимодействия это тоже информация, поскольку, чтобы узнать об отсутствии чего-либо, субъект должен получить об этом знание (информацию). Узнать что-либо, не получая знание, невозможно. При этом важно учитывать тот факт, что любое знание субъекта является, по определению, субъективным, относительным. (Обсуждение проблемы достижимости абсолютного знания выходит за рамки данной статьи.)

Действительно, любой объект содержит в себе информацию, однако интерпретация этой информации, понимание ее семантического содержания зависит от осознающего эту информацию субъекта. В зависимости от методов интерпретации, для разных субъектов один и тот же объект может являться источником разной информации, различающейся по смыслу и важности. Рассмотрим следующий пример. Для русскоговорящего человека буква «А» – это первая буква русского алфавита; для англоговорящего – визуально та же буква является первой буквой латинского алфавита, т.е. она несет иной смысл. С точки зрения лингвиста, пытающегося понять смысл текста, «А» – это буква, тогда как с точки зрения специалиста по геометрии изображение буквы «А» представляет собой множество точек, определенных на двумерном топологическом многообразии [27]. В то время как для лингвиста любая буква репрезентирует минимальный элемент слова, т.е. неделимый объект (своего рода квант письменного языка), для математика-криптоаналитика буква – это двумерный массив данных, состоящий из элементов (нульмерных точек), каждому из которых соответствуют две координаты в рамках двумерного пространства. При таком подходе для кодирования информации может использоваться любой из этих элементов (точек), поэтому буква будет являться не минимальным элементом сообщения, а двумерной информационной матрицей [28], которая может заключать в себе различные сообщения в зависимости от используемого метода кодирования. Более того, в качестве элементов сообщения могут использоваться не только сами точки, но и их окрестность, т.е. прилегающее к ним двумерное пространство, которое для лингвиста является «пустотой», не несущей никакого смысла (подробно эта проблема рассматривается нами в [29]).

Необходимо отметить, что информация может содержаться не только в материальном объекте, но и в самом факте его отсутствия. Например, передатчик (Алиса) и приемник (Боб) могут использовать двоичный код и условиться, что наличие любого материального объекта в области пространства (C) соответствует единице, а отсутствие каких-либо объектов в данной области пространства нулю. Тогда в случае отсутствия объектов в области пространства (C) Боб получит от Алисы информацию в виде нуля, хотя для всех остальных субъектов (не знающих используемого Алисой и Бобом кода) данная область будет просто «пустотой», не содержащей никаких объектов и никакой информации. Таким образом, любая «пустота» может нести в себе информацию, т.е. отсутствие каких-либо сообщений само по себе может являться сообщением, несущим информацию.

При этом следует подчеркнуть, что для получения субъектом информации, содержащейся в материальном объекте (носителе информации), необходимо взаимодействие между субъектом и объектом, содержащим информацию. Без взаимодействия между субъектом (получателем информации) и носителем информации ее получение невозможно. Из этого следует, что даже при отсутствии каких-либо материальных объектов в области пространства (C) для установления этого факта субъекту (Бобу) необходимо провести наблюдение этой области пространства, а наблюдение возможно только посредством материальных переносчиков информации (по меньшей мере, в рамках существующих в современной физике представлений). Например, в случае визуального наблюдения таким переносчиком информации будет являться свет (электромагнитная волна или, иначе говоря, фотоны). Иными словами, записывать, хранить и передавать информацию в чистом виде, без материи и энергии, человечество пока не умеет. В современной физике неизвестны частицы, которые могли бы переносить информацию без переноса материи и энергии. Такие гипотетические частицы (кванты информации) должны быть безмассовыми и не должны обладать электрическим зарядом, однако ни одна из известных в настоящее время частиц такими свойствами не обладает.

Важно также отметить, что содержать в себе информацию может не только пространство, но и время. Информация может содержаться не только в каком-либо материальном объекте и не только в условной «пустоте», но и во временны́х интервалах. Это позволяет создавать системы передачи информации, в которых, к примеру, каждая четная секунда (или любой другой заданный временно́й интервал, например, фемтосекунда) будет означать 1, а каждая нечетная – 0. В такой бинарной временно́й системе кодирования не важно, что происходит, а важно, когда это происходит. На практике этот принцип реализуется при передаче электромагнитных волн в виде так называемой временно́й модуляции сигнала [30].

Существует ли зависимость между объемом какой-либо области пространства-времени и объемом информации, которую данная область может в себя вместить? По всей видимости, чем больше объем пространства, тем больше информации оно может нести. Это справедливо даже для «пустого» пространства, не содержащего каких-либо материальных объектов, поскольку любое пространство может нести информацию, закодированную в виде координат (чем больше координат, тем больше информации). Здесь, конечно, следует учитывать, что понятие объема применимо не только к трехмерным пространствам, но и к пространствам любой размерности, поэтому в данном случае имеется в виду объем области пространства-времени, не подразумевающего обязательную четырехмерность. В общем же случае это может быть n-мерное пространство с одномерным временем (концепцию многомерного времени мы для простоты не рассматриваем).

Очевидно, что должна существовать и обратная зависимость: чем меньше объем области пространства-времени, тем меньший объем информации она может в себя вместить. Если считать справедливыми упомянутые выше ограничения на минимально возможные физические размеры любого материального объекта (длина объекта не может превышать планковскую) и минимально возможный временной интервал между двумя событиями (планковское время), то это накладывает определенные ограничения на минимальный физический размер, которым может обладать область пространства. В трехмерном случае, для трехмерного пространства в рамках евклидовой геометрии, минимально возможной областью пространства (квантом пространства) будет являться объект с длиной, шириной и высотой, равными планковской длине (L), т.е. объем этого объекта равен так наз. планковскому объему (L3). В случае n-мерного евклидова пространства это, соответственно, Ln.

Поскольку Ln это минимально возможный объем объекта, несущего в себе информацию, то очевидно, что этот объект должен быть бесструктурным. Это следует из того факта, что не может существовать ничего, меньшего по своим физическим размерам, чем данный объект. Таким образом, этот объект можно рассматривать как условную бесструктурную частицу (квант), хранящую информацию. При таком подходе можно интерпретировать всю Вселенную как гигантскую компьютерную память или вычислительную машину, состоящую из отдельных элементов, представленных в виде квантов пространства, каждый из которых содержит квант информации.

Как уже отмечалось выше, семантическое содержание любой информации является относительным и зависит от методов интерпретации этой информации субъектом. Один и тот же квант информации, квант знания (например, один бит, полученный в качестве ответа на заданный дихотомический вопрос) может нести различный смысл для разных субъектов в зависимости от используемого способа интерпретации полученного ответа. Таким образом, любая минимально возможная область пространства (квант пространства) может нести в себе информацию, по-разному интерпретируемую различными субъектами. Если допустить, что число теоретически возможных способов кодирования и интерпретации информации является бесконечным, то из этого следует, что любой квант информации представляет собой бесконечное семантическое многообразие, т.е. может иметь бесконечное число возможных смысловых интерпретаций.

Выводы:

1. Информация тождественна знанию. Любой известный субъекту объект, как материальный, так и идеальный содержит в себе информацию. Для любого субъекта сам факт существования любого объекта – это информация (знание) о его существовании.

2. Информация представляет собой самостоятельный теоретический объект, не сводящийся к материи и энергии и не подчиняющийся известным физическим законам, существующим для материально-энергетических объектов. Таким образом, информацию можно рассматривать как идеальную сущность, отождествляемую с определенным знанием субъекта. При этом информация может быть представлена посредством не только идеальных, но и материальных объектов.

3. Сознание можно рассматривать как информационный массив, аналогичный компьютерной программе, обрабатывающей информацию согласно определенным правилам логики. Процесс логического мышления в таком случае сводится к операциям преобразования информации из исходных посылок в логические следствия, т.е. сводится к информационным взаимодействиям.

4. Информационные взаимодействия являются самостоятельным типом взаимодействий и не сводятся к четырем известным фундаментальным физическим взаимодействиям, которым подчиняются материально-энергетические объекты. Любые логические и математические операции – это информационные взаимодействия.

5. Помимо количественной характеристики, определяющей количество или объем информации, содержащейся в некотором массиве, любая информация также обладает семантическим содержанием, зависящим от используемых субъектом методов интерпретации данной информации. При этом сами методы интерпретации также являются информацией.

6. Необходимость существования такого объекта как квант информации (квант знания) является логическим следствием представлений о квантуемости Вселенной.

7. Вселенная может интерпретироваться как гигантская компьютерная память или вычислительная машина, состоящая из отдельных элементов, представленных в виде квантов пространства, каждый из которых содержит квант информации.

8. Квант информации представляет собой бесконечное семантическое многообразие, т.е. может иметь бесконечное число возможных смысловых интерпретаций.

References
1. Landau L.D., Lifshits E.M. Kvantovaya mekhanika (nerelyativistskaya teoriya). 6-e izd., ispr. M.: Fizmatlit, 2004. 800 s.
2. Zubov V.P. Razvitie atomisticheskikh predstavlenii do nachala XIX veka. M.: Nauka, 1965. 372 s.
3. Sardanashvili G.A. Sovremennye metody teorii polya. T. 5. Gravitatsiya. M.: URSS, 2011. 176 s.
4. Okun' L.B. Fizika elementarnykh chastits. 2-e izd., pererab. i dop. M.: Nauka. Glavnaya redaktsiya fiziko-matematicheskoi literatury, 1988. 272 s.
5. Bogolyubov N.N., Logunov A.A., Oksak A.I., Todorov I.T. Obshchie printsipy kvantovoi teorii polya. M.: Nauka, 1987. 616 s.
6. Kvantovaya metrologiya i fundamental'nye konstanty. Sbornik statei: per. s angl. / Pod red. Faustova R.N, Shelesta V.P. M.: Mir, 1981. 368 s.
7. Shennon K. Raboty po teorii informatsii i kibernetike. M.: Izd. inostr. lit., 1963. 830 s.
8. Ursul A.D. Problema informatsii v sovremennoi nauke. M.: Nauka, 1975. 288 s.
9. Kogan I.M. Prikladnaya teoriya informatsii. M.: Radio i svyaz', 1981. 216 s.
10. Kheming R.V. Teoriya kodirovaniya i teoriya informatsii. M.: Radio i svyaz', 1983. 176 s.
11. Wheeler J.A. Information, physics, quantum: The search for links. // in W. Zurek (ed.) Complexity, Entropy, and the Physics of Information. Redwood City, CA: Addison-Wesley, 1990. P. 3–28.
12. Lloyd S. Programming the Universe. New York: Knopf, 2004. 221 p.
13. Lloid S., Endzhi Dzh. Singulyarnyi komp'yuter // V mire nauki. 2005. – № 2. S. 32–43.
14. Rezhabek E.A. Radikal'nyi konstruktivizm: kriticheskii vzglyad // Voprosy filosofii. 2006. № 8. S. 67–77.
15. Luzgin V.V. Sovremennye problemy teorii osnovnogo voprosa filosofii. Kazan': Izd-vo Kazanskogo un-ta, 1985. 225 s.
16. Viner N. Kibernetika, ili upravlenie i svyaz' v zhivotnom i mashine. M.: Nauka, 1983. 344 s.
17. Lyapunov A.A. O sootnoshenii ponyatii materiya, energiya i informatsiya. // V kn.: Lyapunov A.A. Problemy teoreticheskoi i prikladnoi kibernetiki. Novosibirsk: Nauka, 1980. S. 320–323.
18. Shmuttser E. Simmetrii i zakony sokhraneniya v fizike. M.: Mir, 1974. 160 s.
19. Nenashev M.I. Antropnyi printsip i problema nablyudatelya // Voprosy filosofii. 2012. № 4. S. 64–74.
20. T'yuring A. Mozhet li mashina myslit'? M. : Fizmatgiz, 1960. 112 s.
21. Shannon C.E. A Mathematical Theory of Communication. // Bell System Technical Journal, 27(4). (October, 1948). P. 623–656.
22. Karpenko A.S. Mnogoznachnye logiki // Logika i komp'yuter. Vyp. № 4. M.: Nauka, 1997. 223 s.
23. Levin V.I. Beskonechno-znachnaya logika v zadachakh kibernetiki. M.: Radio i svyaz', 1982. 176 s.
24. Kruglov V.V., Dli M.I., Golunov R.Yu. Nechetkaya logika i iskusstvennye neironnye seti. M.: Fizmatlit, 2001. 221 s.
25. Mes'kov V. S. Ocherki po logike kvantovoi mekhaniki. M.: Izd-vo MGU, 1986. 144 s.
26. Kitaev A., Shen' A., Vyalyi M. Klassicheskie i kvantovye vychisleniya. M. : MTsNMO, 1999. 192 s.
27. Mishchenko A.S., Fomenko A.T. Kurs differentsial'noi geometrii i topologii. M.: MGU, 1980. 439 s.
28. Bellman R.E. Vvedenie v teoriyu matrits. M.: Nauka, 1969. 368 s.
29. Sobolev V.E. Mnogomernye sistemy pis'mennosti // Filologiya: nauchnye issledovaniya. 2016. № 1. S. 91–100.
30. Nesterov R. Tekhnologiya, v vozmozhnosti kotoroi trudno poverit' // Nauka i zhizn'. 2001. № 4. S. 40–43.