On

Предел шеннона

Posted by admin


Предел Шеннона

Существует нижнее предельное значение Еb/Nо, при котором ни при какой скорости передачи нельзя осуществить безошибочную передачу информации. С помощью соотношения

можно рассчитать предельное значение.

Пусть

Тогда

(1)

При C/W→0

В децибелах Еb/Nо= ‑1,6дБ.

Это значение Еb/Nо называется пределом Шеннона. На рис. 1, а предел Шеннона ‑ это кривая зависимости РB от Еb/Nо при k→∞. При Еb/Nо= ‑1,6дБ. данная кривая скачкообразно изменяет свое значение от Рв ~ 1/2 на Рв = 0. В действительности достичь предела Шеннона невозможно, поскольку k возрастает неограниченно, а с ростом к возрастают требования к полосе пропускания и повышается сложность реализации системы. Работа Шеннона ‑ это теоретическое доказательство существования кодов, которые могут улучшить Рв или снизить требуемое значение Еb/Nо от уровней некодированных двоичных схем модуляции до уровней, приближающихся к предельной кривой. При вероятности появления битовой ошибки 10-5 двоичная фазовая манипуляция (BPSK) требует значения Еb/Nо, равного 9,6 дБ (оптимум некодированной двоичной модуляции). Следовательно, за счет использования кодирования, производительность можно повысить на 11,2 дБ по сравнению с некодированной двоичной модуляцией. Оптимальную разработку системы можно наилучшим образом представить как поиск рациональных компромиссов среди различных ограничений и взаимно противоречивых требований. Компромиссы модуляции и кодирования, т.е. выбор конкретных схем модуляции и кодирования для наилучшего использования переданной мощности и ширины полосы, являются очень важными, поскольку имеется много причин для снижения мощности, а также существует необходимость экономии спектра радиочастот.

Другие статьи:

Модуляция и её разновидности
В своём реферате я опишу свойства модуляции и её виды. Опишу, что такое модуляция, что можно с её помощью делать. Если говорить своими словами, то модуляция-это процесс преобразования оного сигнала в другой, для того чтобы …

Преобразователи напряжение-ток
Преобразователи напряжение-ток (ПНТ) также являются важным элементом в схемотехнике аналоговых электронных устройств. На их основе могут быть выполнены различные прецизионные операционные усилители, в которых ПНТ используется …

Ремонт лазерного принтера
Актуальность исследуемой темы заключается в том, что на сегодняшний момент развитие компьютерной техники привело к необходимости не только перевести большую нагрузку по оформлению документации и выполнению математических вычи …

70 лет информационной эпохе К.Шеннона


1948 г. ~ 8 дБ до достижения «границы Шеннона» для КИМ

Л.1.Работы по теории информации и кибернетике (1963) — Шеннон

Л.2.Shannon C., Communication in the presence of noise, PIRE, 37, I (1949),10

Основные положения теории связи К.Шеннона
(по материалам главы 8, Л.1.,с.451,452).

Идеальной системой передачи (преобразования — примеч.автора) информации является система обеспечивающая ее передачу без ошибок со скоростью С.
Такая система не может быть осуществлена ни при каком конечном процессе кодирования, но к ней можно приблизиться настолько, насколько это желательно.о мере приближения к идеалу происходит следующее:
1) Скорость передачи двоичных чисел приближается к C=WLog(1+P/N).
2) Частота ошибок приближается к нулю.
3) Передаваемый сигнал по своим статистическим свойствам приближается к белому шуму….
4) Пороговый эффект становится очень острым….
5) Требуемые задержки в передатчике и приемнике неограниченно возрастают….

«Аксиомы одной эпохи — нерешенные задачи
следующей» Тони Р.Х.

Об аксиомах теории связи К.Шеннона.

Любая научная теория создается на основе аксиоматических моделей, являющихся последовательными приближениями к описанию Природы.Совокупность таких непротиворечивых друг другу моделей составляет аксиоматическую базу конкретной теории.Не является исключением из этого положения и теория связи К.Шеннона.Развитие теории заключается в замене (изменении) исходных аксиом и (или) в уменьшении их числа.Любые аксиомы исторически ошибочны, что является следствием теоремы Геделя о неполноте (существование утверждений, недоказуемых логически).В пределах предпосылок моделей научные знания, когда они применяются в этих границах, являются абсолютной истиной, за пределами этих границ они ошибочны.Поэтому в науке существуют ошибки, которые как при своем возникновении, так и при дальнейшем развитии науки были, есть и останутся только ошибками.Их ошибочность является абсолютной истиной потому, что относится к областям применимости проверенных моделей.Последнии два утверждения находятся в полном согласии с теорией фальсифицируемости (опровергаемости) научных теорий К.Поппера.Различные модели (утверждения) становятся аксиомами, в тех или иных теориях, по различным критериям, в частности, как уже доказанные в других теориях, вновь введенные в данной теории в силу удобства применения или очевидности и другим критериям.Понятно что, аксиомы, введенные в базу по критерию очевидности, являются исторически первыми кандидатами на удаление, замену или изменение, то есть представляют собой, в рамках теории фальсифицируемости, потенциальный фальсификатор данной научной теории.
Основополагающей аксиомой математической теории информации
К.Шеннона (во всяком случае для технической информации в виде данных, сообщений и т.п.)является определение информации, как меры устраненной чего — либо неопределенности (негэнтропии), что является неопровержимым утверждением при использовании доказательства от противного.
Материализуя информацию для целей ее преобразования (передачи), путем отображения информации на физический носитель, Шеннон переносит на него энтропийные свойства,закладывая таким образом функциональную связь между информацией и энергией (мощностью), в последние годы подтвержденную экспериментально.Перенос энтропийных свойств собственно информации на энтропийно — энергетические свойства ее материального носителя является, хотя и не артикулированной, но важной второй аксиомой теории связи К.Шеннона.
Отметим, что обращение к энтропийному описанию процессов преобразования информации не является обязательным и единственным, возможны геометрический подход, методы статистических решений и др.
В нашу задачу не входит полный анализ аксиоматической базы теории связи К.Шеннона, тем более, что уже на втором шаге мы добрались до «ахиллесовой пяты» теории — ее потенциального фальсификатора, представляющего собой функциональную связь между информацией и энергией.Остановимся на этом более подробно.
Преобразуя формулу Шеннона для пропускной способности (см.выше), в случае использования дискретных (энергетических, вместо мощностных, в случае непрерывных) сигналов имеем (символ «B» заменяем на «W»)

R=WLog[1+(EoR/NoW)],

где R — скорость передачи, [бит/с];
Eo — энергия носителя одного бита информации, [Дж];
No — спектральная плотность мощности белого (с равномерной плотностью) шума.
Добавляя, в соответствии с определением (C) условие
R < = C
и раскрывая неопределенность относительно (Eo/No), окончательно получаем так называемый «предел Шеннона»

(Eo/No) < = Ln2 = ~ 0,693,

где (Eo/No) — величина, обратная энергетической эффективности, [Дж/Вт/Гц].

Итак, введенное в аксиоматическую базу теории связи, исторически очевидное, из всего предшествующего, полувекового опыта создания систем преобразования (передачи) информации, утверждение об принципиальной информативности мощностной (энергетической) характеристики материальных процессов — носителей информации, наряду с неотъемлемой ее функцией материализации информации, привело к наличию принципиальных энергетических ограничений при разработке систем преобразования информации, действующих и по сей день, вот уже в течение 70-и лет.

Теоремы Шеннона

Пусть имеется источник информации Х и приёмник У, связанные каналом К. Известна производительность источника информации Н1(Х), т.е. среднее количество двоичных единиц информации, поступающее от источника в единицу времени (численно оно равно средней энтропии сообщения, производимого источником в единицу времени). Известна пропускная способность канала С1, т.е. максимальное количество информации, которое способен передать канал в ту же единицу времени. Возникает вопрос: какой должна быть пропускная способность канала, чтобы он справлялся со своей задачей, т.е. чтобы информация от источника к приёмнику поступала без задержки?

Несмотря на то, что ответ и так очевиден, он даётся в первой теореме Шеннона.

1-я теорема Шеннона:

Если пропускная способность канала связи С1 больше энтропии источника информации в единицу времени

С1 > Н1(Х),

то всегда можно закодировать достаточно длинное сообщение так, чтобы оно передавалось каналом связи без задержки.

Если же, напротив,

С1 < Н1(Х),

то передача информации без задержек невозможна.

Передача информации с искажениями.

Пропускная способность канала с помехами.

И 1-я теорема Шеннона, и оба рассмотренные нами методы кодирования относятся к передаче информации без ошибок. В действительности это процесс неизбежно сопровождается ошибками (искажениями). Канал передачи, в котором возможны искажения, называется каналом с помехами (или шумами).

Совершенно очевидно, что наличие помех приводит к потере информации. Чтобы в условиях наличия помех получить на приёмнике требуемый объём информации, необходимо принимать специальные меры. Одной из таких мер является введение так называемой «избыточности».

Теорема Шеннона — Хартли

Известно, что все живые языки обладают некоторой избыточностью, доходящей до 50% (т.е.50% букв мы могли бы вообще не произносить или перепутывать их местами:-)).

Вот пример: По рзелульаттам илссеовадний одонго анлигйсокго унвиертисета, не иеемт занчнеия, в кокам пряокде рсапожолены бкувы в солве. Галвоне, чотбы преавя и пслоендяя бквуы блыи на мсете. Осатьлыне бквуы мгоут селдовтаь в плоонм бсепордяке, всё-рвано ткест чтаитсея без побрелм.

Надеюсь, вы поняли, что здесь написано))))

Однако для безошибочной передачи естественная избыточность языка может оказаться как чрезмерной, так и недостаточной: всё зависит от того, насколько велика опасность искажений. С помощью методов теории информации можно для каждого уровня помех найти нужную степень избыточности источника информации.

Рассмотрим, например, такую задачу. Канал связи К передаёт от источника информации Х к приёмнику У элементарные символы 0 и 1 в количестве k символов в единицу времени. В процессе передачи каждый символ, независимо от других, с вероятностью μ может быть искажён (т.е. заменён противоположным). Требуется найти пропускную способность канала.

Определим сначала максимальную информацию на один символ, которую может передавать канал. Пусть источник производит символы 0 и 1 с вероятностями p и 1-p.

Тогда энтропия источника будет

Н(Х)=-p log p — (1-p) log (1-p).

Если бы передача сообщений не сопровождалась ошибками, то количество информации на один символ было бы равно самой энтропии системы Х. При наличии ошибок оно будет меньше:

I = H(Y) — H(Y/X).

Чтобы найти полную условную энтропию Н(У/Х), найдём сначала частные условные энтропии: Н(У/х1) и Н(У/х2).

Вычислим Н(У/х1); для этого предположим, что передан символ 0. Найдём условные вероятности того, что при этом система У находится в состоянии у1=0 и в состоянии у2=1. Первая из них равна вероятности того, что сигнал не перепутан:

Р(у1/х1)=1-µ;

вторая — вероятности того, что сигнал перепутан:

Р(у2/х1)=µ.

Условная энтропия Н(У/х1) будет:

Н(У/х1)=-Σ Р(уi/x1) log P(yi/x1) = -(1-µ) log (1-µ) — µ log µ.

Найдём теперь условную энтропию системы У при условии, что передан сигнал 1:

Р(у1/х2)=µ; Р(у2/х2)=1-µ,

откуда

Н(У/х2)= — µ log µ — (1-µ) log (1-µ).

Таким образом

Н(У/х1)= Н(У/х2).

Полная условная энтропия Н(У/Х) получится, если осреднить условные энтропии с учётом вероятностей р и 1-р. Так как частные условные энтропии равны, то

Н(У/Х)= — µ log µ — (1-µ) log (1-µ).

Вывод: условная энтропия Н(У/Х) совсем не зависит от того, с какими вероятностями встречаются символы 0 и 1 в передаваемом сообщении, а зависит только от вероятности ошибки µ.

Теперь вычислить информацию, передаваемую одним символом:

I = H(Y) — H(Y/X) = — r log r — (1-r) log (1-r) — — µ log µ — (1-µ) log (1-µ) =

= [η(r) + η(1-r)] — [η(µ) + η(1-µ)],

Где r — вероятность того, что на выходе появится символ 0.

Мы знаем, что энтропия и количество информации максимально при равновероятных сигналах, т.е. (в нашем случае) при р=1/2. Следовательно, максимальное количество информации, передаваемое одним символом

I max= 1 — [η(µ) + η(1-µ)],

А пропускная способность канала связи будет равна

С= k(1 — [η(µ) + η(1-µ)]).

Заметьте, что η(µ) + η(1-µ) — это энтропия системы, имеющей 2 возможных состояния с вероятностями µ и 1-µ. Она характеризует потерю информации на один символ, связанную с наличием помех.

Пример 1. Определить пропускную способность канала связи, способного передавать 100 символов 0 или 1 в единицу времени, причем каждый из символов искажается (заменяется противоположным) с вероятностью µ=0,001.

Решение:

η(µ) = η(0,001) = 0,0664

η(1-µ) = 0,0144

η(µ) + η(1-µ) = 0,0808

На один символ теряется информация 0,0808 бит. Пропускная способность канала равна

С = 100(1-0808) = 91,92 ≈ 92 бит в единицу времени.

Зная пропускную способность канала, можно определить верхний предел скорости передачи информации по каналу с помехами. К этому случаю относится вторая теорема Шеннона.

2-я теорема Шеннона:

Пусть имеется источник информации Х, энтропия которого в единицу времени равна Н2(Х), и канал с пропускной способностью С2. Тогда, если

Н2(Х) >С2,

То при любом кодировании передача сообщений без задержек и искажений невозможна. Если же

Н2(Х) < С2,

То всегда можно достаточно длинное сообщение закодировать так, чтобы оно было передано без задержек и искажений с вероятностью, сколь угодно близкой к единице.

Пример 2. Имеются источник информации с энтропией в единицу времени Н(Х) = 100 бит и 2 канала связи; каждый из них может передавать в единицу времени 70 двоичных знаков (0 или 1); каждый двоичный знак заменяется противоположным с вероятностью µ=0,1. Требуется выяснить: достаточна ли пропускная способность этих каналов для передачи информации, поставляемой источником?

Решение: Определяем потерю информации на один символ:

η(µ) + η(1-µ) = 0,332+0,137=0,469 бит

Максимальное количество информации, передаваемое по одному каналу в единицу времени:

С = 70(1-0,469) = 37,2 бит.

Максимальное количество информации, которое может быть передано по двум каналам в единицу времени:

37,2*2 = 74,7 бит,

чего недостаточно для обеспечения передачи информации от источника.

1 | 2 |

Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности. Закон назван в честь Клода Шеннона и Ральфа Хартли.

В течение конца 1920-х гг. Гарри Найквист и Ральф Хартли разработали фундаментальные идеи, связанные с передачей информации, с помощью телеграфа как системы коммуникаций. В то время, это был прорыв, но науки как таковой не существовало. В 1940-х гг., Клод Шеннон ввёл понятие пропускной способности канала, которое базировалось на идеях Найквиста и Хартли, а затем сформулировал полную теорию передачи информации.

В 1927 году Найквист установил, что число независимых импульсов в единицу времени, которые могут быть переданы через телеграфный канал, ограничено удвоенной максимальной частотой пропускания канала (этой частоте соответствует чередующаяся последовательность нулей и единиц, остальные комбинации сигналов соответствуют более низким частотам)

Теоремы Шеннона для канала с шумами (теоремы Шеннона для передачи по каналу с шумами) связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).

Предел Шеннона

Если скорость передачи сообщений меньше пропускной способности канала связи

то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.

то кода, на основе которого можно добиться сколько угодной малой вероятности возникновения ошибки, не существует.

В данной теореме определено, что достичь максимальной скорости (бит/с) можно путём увеличения полосы пропускания и мощности сигнала и, в то же время, уменьшения шума.

Теорема Шеннона — Хартли ограничивает информационную скорость (бит/с) для заданной полосы пропускания и отношения «сигнал/шум». Для увеличения скорости необходимо увеличить уровень полезного сигнала, по отношению к уровню шума.

Если бы существовала бесконечная полоса пропускания, бесшумовой аналоговый канал, то можно было бы передать неограниченное количество безошибочных данных по ней за единицу времени. Реальные каналы имеют ограниченные размеры и в них всегда присутствует шум.

Удивительно, но не только ограничения полосы пропускания влияют на количество передаваемой информации. Если мы комбинируем шум и ограничения полосы пропускания, мы действительно видим, что есть предел количества информации, которую можно было передать, даже используя многоуровневые методы кодирования. В канале, который рассматривает теорема Шеннона — Хартли, шум и сигнал дополняют друг друга. Таким образом, приёмник воспринимает сигнал, который равен сумме сигналов, кодирующего нужную информацию и непрерывную случайную, которая представляет шум.

Это дополнение создает неуверенность относительно ценности оригинального сигнала. Если приёмник обладает информацией о вероятности ненужного сигнала, который создает шум, то можно восстановить информацию в оригинальном виде, рассматривая все возможные влияния шумового процесса. В случае теоремы Шеннона — Хартли шум, как таковой, произведен гауссовским процессом с некоторыми отклонениями в канале передачи. Такой канал называют совокупным белым гауссовским шумовым каналом, так как гауссовский шум является частью полезного сигнала. «Белый» подразумевает равное количество шума во всех частотах в пределах полосы пропускания канала. Такой шум может возникнуть при воздействии случайных источников энергии, а также быть связан с ошибками, возникшими при кодировании. Знание о вероятности возникновения гауссовского шума значительно упрощает определение полезного сигнала.

Способы расчета пропускной способности трубопровода
Расчет пропускной способности газопроводов
Расчет пропускной способности канализационных труб
Табличный расчет канализационных труб
Расчет пропускной способности водопровода

Прокладка трубопровода – дело не очень сложное, но достаточно хлопотное. Одной из самых сложных проблем при этом является расчет пропускной способности трубы, которая напрямую влияет на эффективность и работоспособность конструкции. В данной статье речь пойдет о том, как рассчитывается пропускная способность трубы.

Пропускная способность – это один из важнейших показателей любой трубы. Несмотря на это, в маркировке трубы этот показатель указывается редко, да и смысла в этом немного, ведь пропускная способность зависит не только от габаритов изделия, но и от конструкции трубопровода. Именно поэтому данный показатель приходится рассчитывать самостоятельно.

70 лет информационной эпохе К.Шеннона

Способы расчета пропускной способности трубопровода

Перед тем, как посчитать пропускную способность трубы, нужно узнать основные обозначения, без которых проведение расчетов будет невозможным:

  1. Внешний диаметр. Данный показатель выражается в расстоянии от одной стороны наружной стенки до другой стороны. В расчетах этот параметр имеет обозначение Дн. Внешний диаметр труб всегда отображается в маркировке.
  2. Диаметр условного прохода. Это значение определяется как диаметр внутреннего сечения, который округляется до целых чисел. При расчете величина условного прохода отображается как Ду.

Расчет проходимости трубы может осуществляться по одному из методов, выбирать который необходимо в зависимости от конкретных условий прокладки трубопровода:

  1. Физические расчеты. В данном случае используется формула пропускной способности трубы, позволяющая учесть каждый показатель конструкции. На выборе формулы влияет тип и назначение трубопровода – например, для канализационных систем есть свой набор формул, как и для остальных видов конструкций.
  2. Табличные расчеты. Подобрать оптимальную величину проходимости можно при помощи таблицы с примерными значениями, которая чаще всего используется для обустройства разводки в квартире. Значения, указанные в таблице, довольно размыты, но это не мешает использовать их в расчетах. Единственный недостаток табличного метода заключается в том, что в нем рассчитывается пропускная способность трубы в зависимости от диаметра, но не учитываются изменения последнего вследствие отложений, поэтому для магистралей, подверженных возникновению наростов, такой расчет будет не лучшим выбором. Чтобы получить точные результаты, можно воспользоваться таблицей Шевелева, учитывающей практически все факторы, воздействующие на трубы. Такая таблица отлично подходит для монтажа магистралей на отдельных земельных участках.
  3. Расчет при помощи программ. Многие фирмы, специализирующиеся на прокладке трубопроводов, используют в своей деятельности компьютерные программы, позволяющие точно рассчитать не только пропускную способность труб, но и массу других показателей. Для самостоятельных расчетов можно воспользоваться онлайн-калькуляторами, которые, хоть и имеют несколько большую погрешность, доступны в бесплатном режиме. Хорошим вариантом большой условно-бесплатной программы является «TAScope», а на отечественном пространстве самой популярной является «Гидросистема», которая учитывает еще и нюансы монтажа трубопроводов в зависимости от региона.

Расчет пропускной способности газопроводов

Проектирование газопровода требует достаточно высокой точности – газ имеет очень большой коэффициент сжатия, из-за которого возможны утечки даже через микротрещины, не говоря уже о серьезных разрывах. Именно поэтому правильный расчет пропускной способности трубы, по которой будет транспортироваться газ, очень важен.

Если речь идет о транспортировке газа, то пропускная способность трубопроводов в зависимости от диаметра будет рассчитываться по следующей формуле:

Где р – величина рабочего давления в трубопроводе, к которой прибавляется 0,10 МПа;

Ду – величина условного прохода трубы.

Указанная выше формула расчета пропускной способности трубы по диаметру позволяет создать систему, которая будет работать в бытовых условиях.

В промышленном строительстве и при выполнении профессиональных расчетов применяется формула иного вида:

  • Qmax = 196,386 Ду2 * p/z*T,

Где z – коэффициент сжатия транспортируемой среды;

Т – температура транспортируемого газа (К).

Эта формула позволяет определить степень разогрева транспортируемого вещества в зависимости от давления. Увеличение температуры приводит к расширению газа, в результате чего давление на стенки трубы повышается(прочитайте: "Почему возникает потеря давления в трубопроводе и как этого можно избежать").

Чтобы избежать проблем, профессионалам приходится учитывать при расчете трубопровода еще и климатические условия в том регионе, где он будет проходить. Если наружный диаметр трубы окажется меньше, чем давление газа в системе, то трубопровод с очень большой вероятностью будет поврежден в процессе эксплуатации, в результате чего произойдет потеря транспортируемого вещества и повысится риск взрыва на ослабленном отрезке трубы.

При большой необходимости можно определить проходимость газовой трубы с помощью таблицы, в которой описана взаимозависимость между наиболее распространенными диаметрами труб и рабочим уровнем давления в них. По большому счету, у таблиц есть тот же недостаток, который имеет рассчитанная по диаметру пропускная способность трубопровода, а именно – невозможность учесть воздействие внешних факторов.

Расчет пропускной способности канализационных труб

При проектировании канализационной системы нужно в обязательном порядке рассчитывать пропускную способность трубопровода, которая напрямую зависит от его вида (канализационные системы бывают напорными и безнапорными). Для осуществления расчетов используются гидравлические законы. Сами расчеты могут проводиться как при помощи формул, так и посредством соответствующих таблиц.

Для гидравлического расчета канализационной системы требуются следующие показатели:

  • Диаметр труб – Ду;
  • Средняя скорость движения веществ – v;
  • Величина гидравлического уклона – I;
  • Степень наполнения – h/Ду.

Как правило, при проведении расчетов вычисляются только два последних параметра – остальные после этого можно будет определить без особых проблем. Величина гидравлического уклона обычно равна уклону земли, который обеспечит движение стоков со скоростью, необходимой для самоочищения системы.

Скорость и предельный уровень наполнения бытовой канализации определяются по таблице, которую можно выписать так:

  1. 150-250 мм — h/Ду составляет 0,6, а скорость – 0,7 м/с.
  2. Диаметр 300-400 мм — h/Ду составляет 0,7, скорость – 0,8 м/с.
  3. Диаметр 450-500 мм — h/Ду составляет 0,75, скорость – 0,9 м/с.
  4. Диаметр 600-800 мм — h/Ду составляет 0,75, скорость – 1 м/с.
  5. Диаметр 900+ мм — h/Ду составляет 0,8, скорость – 1,15 м/с.

Для изделия с небольшим сечением имеются нормативные показатели минимальной величины уклона трубопровода:

  • При диаметре 150 мм уклон не должен быть менее 0,008 мм;
  • При диаметре 200 мм уклон не должен быть менее 0,007 мм.

Для расчета объема стоков используется следующая формула:

Где а – площадь живого сечения потока;

v – скорость транспортировки стоков.

Определить скорость транспортировки вещества можно по такой формуле:

где R – величина гидравлического радиуса,

С – коэффициент смачивания;

i – степень уклона конструкции.

Из предыдущей формулы можно вывести следующую, которая позволит определить значение гидравлического уклона:

Чтобы вычислить коэффициент смачивания, используется формула такого вида:

Где n – коэффициент, учитывающий степень шероховатости, который варьируется в пределах от 0,012 до 0,015 (зависит от материала изготовления трубы).

Значение R обычно приравнивают к обычному радиусу, но это актуально лишь в том случае, если труба заполняется полностью.

Для других ситуаций используется простая формула:

Где А – площадь сечения потока воды,

Р – длина внутренней части трубы, находящейся в непосредственном контакте с жидкостью.

Табличный расчет канализационных труб

Определять проходимость труб канализационной системы можно и при помощи таблиц, причем расчеты будут напрямую зависеть от типа системы:

  1. Безнапорная канализация. Для расчета безнапорных канализационных систем используются таблицы, содержащие в себе все необходимые показатели. Зная диаметр устанавливаемых труб, можно подобрать в зависимости от него все остальные параметры и подставить их в формулу(прочитайте также: "Как выполняется расчет диаметра трубопровода – теория и практика из опыта"). Кроме того, в таблице указан объем проходящей через трубу жидкости, который всегда совпадает с проходимостью трубопровода. При необходимости можно воспользоваться таблицами Лукиных, в которых указана величина пропускной способности всех труб с диаметром в диапазоне от 50 до 2000 мм.
  2. Напорная канализация. Определять пропускную способность в данном типе системы посредством таблиц несколько проще – достаточно знать предельную степень наполнения трубопровода и среднюю скорость транспортировки жидкости. Читайте также: "Как рассчитать объем трубы – советы из практики".

Таблица пропускной способности полипропиленовых труб позволяет узнать все необходимые для обустройства системы параметры.

Расчет пропускной способности водопровода

Водопроводные трубы в частном строительстве применяются чаще всего. На систему водоснабжения в любом случае приходится серьезная нагрузка, поэтому расчет пропускной способности трубопровода обязателен, ведь он позволяет создать максимально комфортные условия эксплуатации будущей конструкции.

Для определения проходимости водопроводных труб можно использовать их диаметр (прочитайте также: "Как определить диаметр трубы – варианты замеров окружности"). Конечно, данный показатель не является основой для расчета проходимости, но его влияние нельзя исключать. Увеличение внутреннего диаметра трубы прямо пропорционально ее проходимости – то есть, толстая труба почти не препятствует движению воды и меньше подвержена наслоению различных отложений.

Впрочем, есть и другие показатели, которые также необходимо учитывать. Например, очень важным фактором является коэффициент трения жидкости о внутреннюю часть трубы (для разных материалов имеются собственные значения). Также стоит учитывать длину всего трубопровода и разность давлений в начале системы и на выходе.  Немаловажным параметром является и количество различных переходников, присутствующих в конструкции водопровода.

Пропускная способность полипропиленовых труб водопровода может рассчитываться в зависимости от нескольких параметров табличным методом. Одним из них является расчет, в котором главным показателем является температура воды. При повышении температуры в системе происходит расширение жидкости, поэтому трение повышается. Для определения проходимости трубопровода нужно воспользоваться соответствующей таблицей. Также есть таблица, позволяющая определить проходимость в трубах в зависимости от давления воды.

Самый точный расчет воды по пропускной способности трубы позволяют осуществить таблицы Шевелевых. Помимо точности и большого числа стандартных значений, в данных таблицах имеются формулы, позволяющие рассчитать любую систему. Данный материал в полном объеме описывает все ситуации, связанные с гидравлическими расчетами, поэтому большинство профессионалов в данной области чаще всего используют именно таблицы Шевелевых.

Основными параметрами, которые учитываются в этих таблицах, являются:

  • Внешний и внутренний диаметры;
  • Толщина стенок трубопровода;
  • Период эксплуатации системы;
  • Общая протяженность магистрали;
  • Функциональное назначение системы.

Заключение

Расчет пропускной способности труб может выполняться разными способами. Выбор оптимального способа расчета зависит от большого количества факторов – от размеров труб до назначения и типа системы. В каждом случае есть более и менее точные варианты расчета, поэтому найти подходящий сможет как профессионал, специализирующийся на прокладке трубопроводов, так и хозяин, решивший самостоятельно проложить магистраль у себя дома. 

Урок "Вероятностный подход к определению количества информации".  

Количество информации в случае различных вероятностей событий определяется

по формуле Шеннона:
 

где Pi – вероятность i-го события,

N – количество возможных событий

Формула была предложена в 1948 г.

Клод Шеннон

американский учёный,

(30 апреля 1916 — 24 февраля 2001)

        Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Рассмотрим примеры таких событий.

1.      При случайном падении бутерброда вероятность падения его маслом вниз (более тяжёлой стороной) больше, чем маслом вверх.

2.      В коробке 20 карандашей, из них 15 красных и 5 чёрных. Вероятность вытащить наугад красный карандаш больше, чем чёрный.

        Количество информации в сообщении о некотором событии зависит от его вероятности. Чем меньше вероятность события, тем больше информации оно несёт.
        P = K/N, где К – количество случаев реализации одного из исходов события, N – общее число возможных исходов одного из событий  2i = log2(1/p), где i – количество информации, p – вероятность события

Задача 1. В коробке 50 шаров, из них 40 белых и 10 чёрных. Определить количество информации в сообщении о вытаскивании наугад белого шара и чёрного шара.

Решение: Вероятность вытаскивания белого шара — P1 = 40/50 = 0,8

Вероятность вытаскивания чёрного шара P2 = 10/50 = 0,2

Количество информации о вытаскивании белого шара  i1 = log2(1/0,8) = log21,25

= log1,25/log2 » 0,32 бит

Количество информации о вытаскивании чёрного шара  i2 = log2(1/0,2) = log25 = log5/log2 » 2,32 бит                                          

Ответ: 0,32 бит;  2,32 бит

Задача 2. В озере живут караси и окуни. Подсчитано, что карасей 1500, а окуней — 500. Сколько информации содержится в сообщениях о том, что рыбак поймал карася, окуня, поймал рыбу?

Решение: События поимки карася или окуня не являются равновероятными, так как окуней в озере меньше, чем карасей.

Общее количество карасей и окуней в пруду 1500 + 500 = 2000.

Вероятность попадания на удочку карася

p1 = 1500/2000 = 0,75, окуня p2 – 500/2000 = 0,25.

I1 = log2(1/p1), I1 = log2(1/p2), где I1 и I2 – вероятности поймать карася и окуня соответственно.

I1 = log2(1 / 0,75) » 0,43 бит, I2 = log2(1 / 0,25) » 2 бит – количество информации в сообщении поймать карася и поймать окуня соответственно.

Количество информации в сообщении поймать рыбу (карася или окуня) рассчитывается по формуле Шеннона

I = — p1log2p1 — p2log2p2

I = — 0,75*log20,75 — 0,25*log20,25 = — 0,75*(log0,75/log2)-0,25*(log0,25/log2) = 0,604 бит » 0.6 бит.

Ответ: в сообщении содержится 0,6 бит информации

Вычисление количества информации для равновероятных событий

определяется по формуле Хартли:

 

Формула Хартли — частный случай формулы Шеннона

для равновероятных событий:

где N – число возможных событий,

i – количество информации в битах.

Формула была предложена Р. Хартли в 1928 г.

Ральф Хартли

американский инженер,

30 ноября 1888 г — 1 мая 1970 г

Задача 1. В коробке 32 карандаша, все карандаши разного цвета.

Теорема Шеннона о пропускной способности канала

Наугад вытащили красный. Какое количество информации при этом было получено?

Решение: Так как вытаскивание карандаша любого цвета из имеющихся в коробке 32 карандашей является равновероятным, то число возможных событий равно 32.

N = 32, i = ?        N = 2i, 32 = 25, i = 5 бит.

Ответ:5 бит.

Задача 2. В школьной библиотеке 16 стеллажей с книгами, на каждом – по 8 полок. Ученику сообщили, что нужный учебник находится на 2-ой полке 4-го стеллажа. Какое количество информации получил ученик?

Решение.

1) Число стеллажей (случаев) – 16.

          N1 = 16, N1 = 2I, 16 = 2I, 16 = 24, I1= 4 бита.

2) Число полок на каждом стеллаже (случаев) – 8,

         N2 = 8, N2 = 2I, 8 = 23, I2 = 3 бит.

3) i = i1 + i2,         i = 4 бита + 3 бита = 7 бит.

Ответ: 7 бит.

Задача 3. Загадывают число в диапазоне от 1 до 200. Какое наименьшее количество вопросов надо задать, чтобы наверняка отгадать число. На вопросы можно отвечать только «Да» или «Нет».

Решение: Правильная стратегия состоит в том, чтобы количество вариантов каждый раз уменьшалось вдвое.

Например, загадано число 152.

1 вопрос: Число >100?  Да.

2 вопрос: Число < 150? Нет.

3 вопрос: Число > 175? Нет. и т.д.

……………………………………………

Количество событий в каждом варианте будет одинаково, и их отгадывание равновероятно. N = Ii, 200 = 2i, 7 < i < 8. Т.к. количество вопросов нецелым числом быть не может, то необходимо задать не более 8 вопросов.

Ответ: 8 вопросов


 

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *