Очень хороша и проста в использовании программа Gnubiff (веб-сайт, которая предназначена для среды GNOME и интегрируется в панель. Умеет проверять наличие новых сообщений с нескольких почтовых ящиков по протоколам pop3, apop, imap4, mh, qmail и mailfile, с поддержкой обычной аутентификации и SSL, в том числе с указанием сертификата. Среди необычных возможностей – фильтрация спама. При получении нового сообщения пользователю выводится его заголовок. В репозитарии Ubuntu gnubiff есть, для установки вводите sudo apt-get install gnubiff. После запуска в левом верхнем углу экрана появится небольшое изображение пингвина. Для настройки следует обратиться к контекстному меню, выбрав в нем пункт Preferences (Установки) (рис. 4.11).

Рис. 4.11. Настройки Gnubiff

Несколько сбивает с толку то, что кнопки для создания нового ящика здесь нет, но все решается просто. По умолчанию есть одна учетная запись, выбираете ее и нажимаете кнопку Properties (Свойства). В появившемся окне вводите имя (Name), в раскрывающемся списке выбираете тип почтового ящика, затем вводите адрес сервера, имя пользователя и пароль. Нажав кнопку Details (Детали), можно указать отличный от умолчания порт, введя его номер в поле other (другой). Метод аутентификации установлен в Autodetect (Автоопределение), в большинстве случаев gnubiff самостоятельно справляется с определением метода. В Delay (Отложить) указывается время, через которое будет проверяться почтовый ящик. Для создания второй записи выделяете первую и нажимаете кнопку Copy (Копировать), затем редактируете параметры, как было описано выше. В Applet or Biff (Апплет или действие) настраиваются расположение и внешний вид значка, текст, выводимый при отсутствии писем и приходе нового сообщения, а в Popup (Всплывающее) – поведение всплывающего окна и вывод заголовков писем.

Это далеко не все программы, о которых можно рассказать. Cтоит обратить внимание и на KBiff , asMail для пользователей среды AfterStep, bbmail для Blackbox и многие другие.

<p>Менеджеры закачек</p>

До обзора специализированных решений хотелось бы напомнить, что такие браузеры, как Opera и Firefox, имеют неплохие менеджеры закачек. К Firefox также есть плагин FlashGot , по популярности занимающий первое место среди плагинов для этого браузера и умеющий автоматически определять установленные в системе менеджеры закачек, перехватывать ссылки с файлами определенных в настройках расширений и передавать их выбранному менеджеру закачек. Применительно к Linux FlashGot умеет совместно работать с такими менеджерами, как Aria, cURL, Gnome Gwget, KDE Kget и Downloader 4 X.

<p>Закачка с командной строки</p>

Самым популярным инструментом для закачки файлов и целых сайтов является утилита GNU Wget, которая, как правило, устанавливается по умолчанию во многих дистрибутивах Linux. Эта утилита поддерживает все популярные протоколы HTTP/HTTPS и FTP, умеет работать через HTTP-прокси-сервер. Wget удобна, так как является неинтерактивной программой: указав на сайт, можно вообще о ней забыть. Повлиять на ее работу можно, только уничтожив процесс (например, нажав Ctrl+D в той консоли, где запущена программа). При использовании веб-браузера пользователь должен постоянно отвечать на какие-то вопросы, а скачивание больших объемов информации может быть утомительно. Здесь же для копирования сайта целиком достаточно ввести команду:

$ wget http://server.org/

Через некоторое время в текущем каталоге появится полная копия сайта; чтобы при обрыве соединения закачка возобновлялась, добавляете параметр -с. Так можно скачать отдельный файл.

$ wget -c http://server.org/file.rar

Параметр -r указывает на рекурсивный обход, а –l – на его глубину. Обойдите рекурсивно все каталоги сайта на глубину не более 10:

$ wget -r -l10 http://server.org/

Наиболее часто используемые параметры можно указать в конфигурационном файле .wgetrc, который создается в домашнем каталоге пользователя. Удобно скачивать файлы по расписанию. Например, создайте задачу для закачки файла в 02.00 (необходимо, чтобы в системе был запущен демон atd):

$ at 0200

at wget -c http://server.org/file.rar

at Нажимаете Ctrl+D

Wget – удобная и популярная программа, но, к сожалению, развивающаяся очень медленно, поэтому стоит обратить внимание на cURL , которая поддерживает на порядок большее количество протоколов: FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, FILE и LDAP. Она знает о сертификатах SSL, прокси, cookies, возможна аутентификация пользователей по имени и паролю. Например, чтобы скачать заглавную страницу сайта, вводите

$ curl-o linux.html

Параметров у нее довольно много, остановимся на самом интересном – -r/–range.

С его помощью можно указать только на часть файла. Что это дает? Находите несколько зеркал и загружаете файл частями с каждого зеркала, а затем собираете.

Перейти на страницу:

Похожие книги