Страница 2 из 2
Добавлено: 25 авг 2003, 10:42
kavenchuk
если это предложение поставить squid - спасибо, работаю над этим.
если это описание работы с apt-get, то:
apt-get не понимает username в виде DOMAIN_NAME/USER_NAME (с "/" в середине) как того требует настроенный так в моей сетке ms-proxy.
Поставлю squid - доложу о результатах. Хотя, IMHO, неправильно это. Может apt-get поковырять? (ШУТКА!

)
Добавлено: 25 авг 2003, 14:06
Guest_
из твоего изначального вопроса, я не совсем понял,
что тебе трэба

, и по сему попытаюсь тебе кое-что разъяснить,
в меру своего разумения.
Существует система скриптов для Debian - apt-proxy для проксирования apt-запросов от клиентов и сохранения запрошенных пактов в локальном репозитарии (т.е. вместо того чтобы все повторно перезакачивали один и тот же пакет - он хранится у кого-то в локальном репозитарии, удобно если много машин исп. apt в одной локалке), в альте все скачиваемые пакеты кладутся в /var/cache/apt/ и больше, пока не выполнишь apt-get clean, не качаются.
Если тебе нужно подобие прозрачно кэшируемого сервер (типа сквида), и который бы клал в общий локальный репозиторий для всех линуховых машин в сети, если это, то опять проще завести сквид,
или тебе нуже apt-proxy, чтобы обходить web-server, т. е. запросы проходят через твою машину прозрачно и на нее же приходит запрошенный пакет, а потом - тому кто его заказал.
Дык в следующий раз объясни, "что те гадо, что надо, может дам,
может дам, что ты хошь"

Добавлено: 25 авг 2003, 14:19
kavenchuk
Не, мне так много не надо

Я просто пытаюсь запустить
apt-get update
на (для) одной едиснственной своей машине(ы).
А он мне - не могу...
Добавлено: 25 авг 2003, 14:41
Llama
Guest_ писал(а):из твоего изначального вопроса, я не совсем понял,
что тебе трэба

, и по сему попытаюсь тебе кое-что разъяснить,
в меру своего разумения.
Существует система скриптов для Debian - apt-proxy для проксирования apt-запросов от клиентов и сохранения запрошенных пактов в локальном репозитарии (т.е. вместо того чтобы все повторно перезакачивали один и тот же пакет - он хранится у кого-то в локальном репозитарии, удобно если много машин исп. apt в одной локалке), в альте все скачиваемые пакеты кладутся в /var/cache/apt/ и больше, пока не выполнишь apt-get clean, не качаются.
Если тебе нужно подобие прозрачно кэшируемого сервер (типа сквида), и который бы клал в общий локальный репозиторий для всех линуховых машин в сети, если это, то опять проще завести сквид,
или тебе нуже apt-proxy, чтобы обходить web-server, т. е. запросы проходят через твою машину прозрачно и на нее же приходит запрошенный пакет, а потом - тому кто его заказал.
Дык в следующий раз объясни, "что те гадо, что надо, может дам,
может дам, что ты хошь"

Объясняю. Есть выход в сеть через прокси. Прокси - M$ - со своей специфической авторизацией. apt в нем авторизоваться не умеет. Как я понимаю, смысл применения squid в том, чтобы поставить его локально и заставить его авторизоваться у M$ как у parent proxy - расчен на то, что squid так умеет.
Добавлено: 25 авг 2003, 15:48
Guest_
тогда опять возвращаемся к нашим баранам,
и еще раз
#export http_proxy="
http://myproxy:3128/"
#export ftp_proxy="
http://myproxy:3128/"
http: видно?
Прокся именно сквид.
[user@localhost hmepas]$ echo $ftp_proxy
192.168.1.1:3128
[user@localhost hmepas]$ echo $http_proxy
192.168.1.1:3128
и тогда apt-update работает
нр вообще-то для wget преград нет, и можно закачивать
файлы с помощью его.
YES!!!
Добавлено: 13 окт 2003, 15:48
kavenchuk
Заработало!
Поставил squid, прописал parent proxy с авторизацией, указал dns_nameservers.
Далее как по букварю:
export http_proxy="
http://localhost:80"
export ftp_proxy="
http://localhost:80"
apt-get update
Работает!!!
Пойду развлекаться дальше
Вопросик - как лучше: таскать с собой cache для squid или настроить apt-proxy и таскать его cache? (ну, хочу на работе по выделенке скачивать чего надо, а потом дома устанавливать не качая)
Добавлено: 27 янв 2004, 05:13
Гость
Вопрос:
apt-get update не работает с прокси, пишет примерно следующее:
[connecting to myproxy.gov.no]
[Logging in]
тут виснет до таймаута и соответственно ничего дальше не делает, пишет could not connect и все такое. Прокси поддерживает авторизацию в виде domen\login ну и пароль соотв. Другие программы (wget etc.) работают нормально.
Proxy "
http://domen\login:pass@myproxy.gov.no:3128/";
Добавлено: 27 янв 2004, 09:09
Llama
А что собственно за дистрибутив? И где/как прописана у тебя прокся?
Добавлено: 27 янв 2004, 10:58
kavenchuk
Если Ваш proxy - M$, то, IMHO, apt-get так и не умеет NTLM-аутентификацию. В этом случае ставить свой proxy, который умеет.
Добавлено: 27 янв 2004, 21:59
Llama
точнее - squid, т.к. ИМХО только он тлком умеет NTLM
Добавлено: 27 янв 2004, 22:30
Гость
Нет прокся squid но нужно ходить по ftp через http вроде apt это умеет, wget работает!!!! Дистрибутив alt linux master. Apt виснет долго на строчке loggin in но потом ничего не пишет а пишет connection time out к репозиторию.
Добавлено: 27 янв 2004, 22:42
Llama
Гость, Proxy "
http://domen\login:pass@myproxy.gov.no:3128/";
нафиг там тогда домен писать? или там такой хитрый squid, что на winbind и PDC заведен? Такое бвает, но редко.