Предыдущая тема :: Следующая тема |
Автор |
Сообщение |
r413 Гость
|
Добавлено: Вт Мар 04 2003 14:14 Заголовок сообщения: многократное снижение избыточности данных |
|
|
Я пользуюсь обычным модемом. Часто не могу скачать ПО большого размера, т.к. либо обрывается линия, либо что-то с провайдером, либо что-то ещё. За два года я разработал алгоритм, который позволяет многократно "сжимать" файл. Заранее могу утверждать, что практически любой объём данных можно сжать до размера обычной дискетты. Пока этот агоритм находится на стадии законченной теории, т.к. мне не хватает знаний для написания соответствующей программы. Его основная идея состоит в выделении структурных звеньев кода, которые создают избыточность, а так же в применении т.н. "менеджера процесса кодирования", который создаёт условия для возможности повторного сжатия. У меня вопрос: кого может интересовать мой алгоритм и как мне его реализовать? |
|
Вернуться к началу |
|
|
ugz Гость
|
Добавлено: Вт Мар 04 2003 15:44 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
03 - пробовал? |
|
Вернуться к началу |
|
|
AndyC Гость
|
Добавлено: Вт Мар 04 2003 17:51 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
На сколько я понимаю, сжатие каким-либо способом убирает избыточность. Если хорошо, то архив меньше, итначе - побольше, но в любом случае в результате получается последовательность без избыточности и сжимать её повторно проблематично. Вы предлагаете многократно выделять избыточность. Но на первом этапе она же и удаляется, что будет на втором, третьем...? Если Вы уверены в своей теории попробуйте меня убедить. |
|
Вернуться к началу |
|
|
Valera Гость
|
Добавлено: Ср Мар 05 2003 05:30 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
после того как ты убрал "избыточность" нужно добавить информацию для обртаного восстановления. После многократного сжатия ты добавишь инфы для восстановления столько, что размер не уменьшится, а может и увеличится по сравнению с оригинальным. |
|
Вернуться к началу |
|
|
r413 Гость
|
Добавлено: Ср Мар 05 2003 13:39 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
Я рассматривал последовательности двоичных единиц. Если выделить максимальную длину однотипных знаков и кодировать сами длины как это происходит по методу Шеннон-Фэно, не затрагивая вероятности появления знаков, то можно сократить сообщеник на количество бит равных максимальных по длине звеньев кода. Однако сообщение может содержать отличное минимальное количество максимальных звеньев, что снижает актуальность алгоритма. Но, ведь не обязательно кодировать все звенья кода, это можно делать системно, регистрируя каждое N-ое звено. И т.д. Кроме того, расположив звенья вертикально, легко увидеть, что исходный код содержит ещё один тип звеньев, которые так же можно кодировать. В своей теории я отдельно рассмотрел понятие звеньев, о которых я рассказал, степени звеньев, 3 типа звеньев и то, что я назвал менеджером процесса кодирования. Действительно, после первого кодирования избыточность снижается, но в исходное сообщение я ставлю метки и с помощью некоторых алгоритмов ( которые я так же получил) изменяю структуру распределения знаков до тех пор, пока новое сообщение в кодированном виде не будет меньше исходного как минимум на K знаков. Я так же рассмотрел структуру распределения двоичных знаков в зависимомти от типа файла (графика, звук, точные данные). Ко всему у меня есть рекомендации. Добавление информационной области происходит с учетом возможностей сжатия, поэтому конечное сообщение не может быть равным или больше исходного. |
|
Вернуться к началу |
|
|
r413 Гость
|
Добавлено: Ср Мар 05 2003 13:40 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
Я рассматривал последовательности двоичных единиц. Если выделить максимальную длину однотипных знаков и кодировать сами длины как это происходит по методу Шеннон-Фэно, не затрагивая вероятности появления знаков, то можно сократить сообщеник на количество бит равных максимальных по длине звеньев кода. Однако сообщение может содержать отличное минимальное количество максимальных звеньев, что снижает актуальность алгоритма. Но, ведь не обязательно кодировать все звенья кода, это можно делать системно, регистрируя каждое N-ое звено. И т.д. Кроме того, расположив звенья вертикально, легко увидеть, что исходный код содержит ещё один тип звеньев, которые так же можно кодировать. В своей теории я отдельно рассмотрел понятие звеньев, о которых я рассказал, степени звеньев, 3 типа звеньев и то, что я назвал менеджером процесса кодирования. Действительно, после первого кодирования избыточность снижается, но в исходное сообщение я ставлю метки и с помощью некоторых алгоритмов ( которые я так же получил) изменяю структуру распределения знаков до тех пор, пока новое сообщение в кодированном виде не будет меньше исходного как минимум на K знаков. Я так же рассмотрел структуру распределения двоичных знаков в зависимомти от типа файла (графика, звук, точные данные). Ко всему у меня есть рекомендации. Меня интересует где можно внедрить подобый адгоритм |
|
Вернуться к началу |
|
|
AndyC Гость
|
Добавлено: Чт Мар 06 2003 09:49 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
Т.е. как я понимаю, Вы сжали, (грубо говоря) перемешали куски и получили опять избыточность. Весьма любопытно. Необходимо писать макет и экспериментировать. |
|
Вернуться к началу |
|
|
nut888 Гость
|
Добавлено: Чт Мар 06 2003 16:19 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
Я думаю вероятность того что Вы придумали что-то действительно ценное мала Проиллюстрирую это Любой сжимаемый файл содержит полезную информацию (будем иметь в виду определение Шеннона) Таким образом существует некоторый теоретический предел больше которого файл сжать нельзя Сам процесс сжатия связан с увеличением энтропии в сжимаемом файле В принципе можно даже посчитать энтропию или информативность любого файла и оценить насколько хорошо он может быть сжат ( I=-Sum[p*log[p]] ) Неважно с помощью каких алгоритмов Но для оценки можно поступить проще использую для сжатия разные алгоритмы и анализируя их работу Вывод: современные алгоритмы очень близки к теоретическому пределу сжатия Даже если Вы придумали действительно что-то новое то это не будет эффективнее того что есть |
|
Вернуться к началу |
|
|
Nose Гость
|
Добавлено: Вс Мар 23 2003 01:43 Заголовок сообщения: Re: многократное снижение избыточности данных |
|
|
Гы-гы ) никто даже не сказал, что это математически невозможно Это я тоби голуба говорю как краеевед В смысле как математик ) |
|
Вернуться к началу |
|
|
|