Доступно и всерьез о людях и  взаимоотношениях между ними
Добро пожаловать в Socionics.org Войти | Регистрация | Помощь
in Найти

Уникальное предложение: Типирование с Виктором Гуленко по Skype!.

Что такое ИМ? ну, типа, серьезный вопрос

Последний ответ: Anonymous   01/12/2005, 14:57   Ответов: 25
Страница 1 из 2 [Всего 26 записей]   1 2 »
Сортировать сообщения: Previous Next
  •  01/09/2005, 22:48 803215

    Вот сижу, ищу ответ.
    Метаболизм - процесс, охватывающий усвоение пищевых веществ и построение из них тела организма (анаболизм) и распад в нем (катаболизм). Информация имеет дюжину разных определений, из которых мне больше всего нравится то, что считает информацию способом изменения системы, уменьшающим её энтропию. Информационный метаболизм это своего рода чебурашка. "Чебоксары - есть, чебуреки - есть, а чебурашки нет". Рассуждения Аушры о том, что человек это замкнутая энергетическая и информационная система, в которой одно перетекает в другое, мягко говоря туманны.
    Одним словом, хочу! ... внятное конструктивное определение, что куда превращается и как это происходит
  •  01/10/2005, 10:30 803216 in reply to 803215

    QUOTE (Shaman @ Jan 10 2005, 01:48 ) Рассуждения Аушры о том, что человек это замкнутая энергетическая и информационная система, в которой одно перетекает в другое, мягко говоря туманны.

    В свое время попадалась мне модификация определения энтропии, включающая информационный член. Хотя обычная термодинамика об этом не знает.
  •  01/10/2005, 13:10 803217 in reply to 803215

    QUOTE (Shaman @ Jan 10 2005, 01:48 ) Информация имеет дюжину разных определений, из которых мне больше всего нравится то, что считает информацию способом изменения системы, уменьшающим её энтропию.

    Не катит. Энтропия - это по сути логарифм числа состояний системы. Чем меньше возможных состояний - тем меньше энтропия. Что никак не вяжется с понятием информации. Хотя, естественно, энтропия и информацию идут рука об руку...

    Я бы сказал, что информация - это самостоятельное понятие нашей Вселенной. Как материя, время, пространство...
  •  01/10/2005, 13:28 803218 in reply to 803215

    QUOTE (Shaman @ Jan 10 2005, 02:48 ) Одним словом, хочу! ... внятное конструктивное определение, что куда превращается и как это происходит 

    Приятно встретить умный вопрос.

    "Информационный метаболизм" - метафора, которую некто Кемпински придумал для шизофреников. Аушра (не станем гадать о причинах) восприняла эту метафору, потеряв кавычки, то есть поверила в нее как в реальность.

    Что такое информация? Отсутствие информации - тоже информация. Подумай об этом. ;)

    Энтропия - не более чем глюк популяризаторов физики. Иллюзия наблюдателя. То есть действительно можно вычислить параметр физической системы, названный энтропией. Но это не характеристика объективной реальности, а лишь показатель устаревания знаний наблюдателя о состоянии системы. 100 лет назад в физике считалось нормой поецировать глюки наблюдателя на объекты внешнего мира.

    Ну а конструктивное определение инфо.типа озвучить пока не могу - готовлю книгу, в которой оно будет.
  •  01/10/2005, 19:52 803219 in reply to 803215

    QUOTE (Balancer @ Jan 10 2005, 16:10 ) Не катит. Энтропия - это по сути логарифм числа состояний системы. Чем меньше возможных состояний - тем меньше энтропия. Что никак не вяжется с понятием информации. Хотя, естественно, энтропия и информацию идут рука об руку...

    Я в свое время думал об этом, пришел к следующему выводу. Информацию можно привязать к числу состояний, но только в рамках какого-то языка. Грубо говоря, одна буква несет разное количество информации в разных языках потому, что в разных языках разное количество букв.
  •  01/10/2005, 19:59 803220 in reply to 803215

    QUOTE (pasha @ Jan 10 2005, 23:52 ) Я в свое время думал об этом, пришел к следующему выводу. Информацию можно привязать к числу состояний, но только в рамках какого-то языка. Грубо говоря, одна буква несет разное количество информации в разных языках потому, что в разных языках разное количество букв.

    Это легко исправить. :)

    Берется интерграл от двоичного логарифма плотности непрерывного распределения вероятностей. У этого языка бесконечное количество букв.
  •  01/10/2005, 20:41 803221 in reply to 803215

    QUOTE (pasha @ Jan 10 2005, 22:52 ) Я в свое время думал об этом, пришел к следующему выводу. Информацию можно привязать к числу состояний, но только в рамках какого-то языка. Грубо говоря, одна буква несет разное количество информации в разных языках потому, что в разных языках разное количество букв.

    Всё не так просто. Берём упорядоченный набор данных. Ну, для простоты - набор бит красивой и простой картинки в BMP. Налицо упорядоченность, информация и т.п. Жмём его хорошим архиватором. Получаем уже набор состояний практически хаотичный. А информация-то никуда не делась... В чём разница расположения данных архивированной информации и хаоса?
  •  01/11/2005, 2:13 803222 in reply to 803215

    мине кажецца
    что ИМ, это типа
    то, какие ты делаешь выводы
    из того, что видишь
  •  01/11/2005, 8:01 803223 in reply to 803215

    QUOTE (Balancer @ Jan 10 2005, 16:10 ) QUOTE (Shaman @ Jan 10 2005, 01:48 ) Информация имеет дюжину разных определений, из которых мне больше всего нравится то, что считает информацию способом изменения системы, уменьшающим её энтропию.

    Не катит. Энтропия - это по сути логарифм числа состояний системы. Чем меньше возможных состояний - тем меньше энтропия. Что никак не вяжется с понятием информации. Хотя, естественно, энтропия и информацию идут рука об руку...

    Я бы сказал, что информация - это самостоятельное понятие нашей Вселенной. Как материя, время, пространство...

    Претензии по определению не ко мне, а к Бриллюэну. А вообще, есть конечно смысл перегруженное понятие рассматривать как самостоятельную сущность.
  •  01/11/2005, 8:06 803224 in reply to 803215

    QUOTE (S.Kopitce @ Jan 10 2005, 14:10 ) Имхо:
    Метаболизм- переваривание. Информация- поток раздражителей, вызывающих реакцию (отражение).
    Короче: это преваривание твоим мозгом того, что узнаешь извне. И в ответ даешь реакцию тоже определенной направленности.
    Кто-то обращает внимание на одну сторону информационного потока, кто-то на другую... По этому признаку и идет разделение на сенсориков-логиков, интуитов-логиков... и т.д.

    Если мы будем продолжать эти рассуждения, то придется признать что информация бывает разной. Причем мозг умеет получать одну информацию, и преобразовывать её в некоторую другую информацию...

    С другой стороны, информация достаточно абстрактное понятие и я очень сильно удивлюсь если узнаю что есть принципиальное отличие между информацией о пространстве и информацией о времени, например. В общем, не складывается у меня в голове "пищеварительный" вариант.
  •  01/11/2005, 8:08 803225 in reply to 803215

    QUOTE (Rou @ Jan 10 2005, 16:28 ) "Информационный метаболизм" - метафора, которую некто Кемпински придумал для шизофреников. Аушра (не станем гадать о причинах) восприняла эту метафору, потеряв кавычки, то есть поверила в нее как в реальность.

    Похоже на то
  •  01/11/2005, 8:11 803226 in reply to 803215

    QUOTE (Balancer @ Jan 10 2005, 23:41 ) QUOTE (pasha @ Jan 10 2005, 22:52 ) Я в свое время думал об этом, пришел к следующему выводу. Информацию можно привязать к числу состояний, но только в рамках какого-то языка. Грубо говоря, одна буква несет разное количество информации в разных языках потому, что в разных языках разное количество букв.

    Всё не так просто. Берём упорядоченный набор данных. Ну, для простоты - набор бит красивой и простой картинки в BMP. Налицо упорядоченность, информация и т.п. Жмём его хорошим архиватором. Получаем уже набор состояний практически хаотичный. А информация-то никуда не делась... В чём разница расположения данных архивированной информации и хаоса?

    Чего-то не хочется скатываться к информации в трактовке Шеннона. Кроме теории электросвязи из этого вряд получиться ли что-нибудь еще.
  •  01/11/2005, 11:36 803227 in reply to 803215

    QUOTE (Rou @ Jan 10 2005, 22:59 ) Берется интерграл от двоичного логарифма плотности непрерывного распределения вероятностей. У этого языка бесконечное количество букв.

    Я торможу и не понимаю, что имеется в виду. Распределения вероятностей чего? Поясни...
  •  01/11/2005, 11:41 803228 in reply to 803215

    QUOTE (Balancer @ Jan 10 2005, 23:41 ) Жмём его хорошим архиватором. Получаем уже набор состояний практически хаотичный. А информация-то никуда не делась... В чём разница расположения данных архивированной информации и хаоса?

    Т.е. ты хочешь сказать, что если букв меньше - то каждая буква несет больше информации сама по себе, но при этом ослабляются корреляции между буквами. Да, гипотеза правдоподобная, спасибо.

    Мне в свое время понравилась история про то, как программа, в которую вложили 2-х, 3-х и 4-х точечные корреляции между буквами в русском языке при случайной генерации с учетом этих корреляций выдавала практически только осмысленные высказывания.

    Кстати, в данном случае лучше употреблять термин "шум", а не "хаос" - в хаосе корреляции как раз присутствуют.
  •  01/11/2005, 11:48 803229 in reply to 803215

    QUOTE (Shaman @ Jan 10 2005, 02:48 ) Информация имеет дюжину разных определений, из которых мне больше всего нравится то, что считает информацию способом изменения системы, уменьшающим её энтропию.

    А не жестковато ли?
    Что если упростить:
    информация — способ изменения СОСТОЯНИЯ (стабильности) сложной системы...

    PS А если подробней — дай поиск по собственному имени "Людвиг фон Берталанфи"...
    Типа Аффтор общей теории систем...

Страница 1 из 2 [Всего 26 записей]   1 2 »
Показать как RSS feed в формате XML


visits

Community Server