Galym_K молодец. Дело говорит. Конечно для файлов с частым повторением одного символа RLE подходит отлично, но в реале такие файлы встречаются не так часто. Поэтому в основном используются алгоритмы на основе метода Зива-Лемпеля. Там используют составленный в процессе сжатия словарь и потом с его помощью жмут файл.
Насчет мега сжатого видео. Если оно не было сжато видеокодеками типа mpeg, xvid, divx и пр., то оно сожмется очень хорошо (в те самые сотни и тыщи раз). Но если видео уже прогнали через сжатие (видеокамеры жмут видеоматериал на лету), то архивация не будет столь значительной. То же можно сказать про любые необработанные данные - аудио, картинки и пр.
По поводу сжатия 123.rar. Если файл имеет расширение rar то это совсем ничего не говорит о степени его сжатия. Ведь тем же Винраром можно "сжимать" файл с минимальной компрессией. При этом файл не пресуется, и это сделано лишь для того чтобы запаролить архив, добавить к нему информацию для восстановления и прочее. Но как сказал он не жмется. Поэтому при повторном реальном сжатии он отлично сжимается. Но если сжать файл изначально с максимальной степенью сжатия, то второй раз сжимать нет смысла. Если хотите поспорить пожалуйста. Легко смогу привести вам парочку формул и теорем из теории связи, кторые многое объясняют и на основе которых строятся самые совершенные алгоритмы сжатия.