Как создать собственного ИИ веб-агента с DeepSeek-R1 и сэкономить более 200$ в месяц

За сервис, который останется безымянным (хорошо, он рифмуется с «OpenAI Operator»), можно платить более 200 долларов в месяц за ограниченные API-вызовы и раздражающий список ограничений.
И все равно, не достигнув лимита, не возможно даже получить данные с нескольких веб-сайтов! DeepSeek-R1 и Browser-Use — два инструмента, которые позволяют бесплатно создать собственный ИИ веб-агент.
Он может работать на ноутбуке, обеспечивает конфиденциальность данных и может выполнять такие задачи, как анализ социальных сетей или получение новостных заголовков.
В этом руководстве поделимся тем, как настроить свой ИИ-агент, используя DeepSeek R1 (8B, 4-bit) и Browser-Use Web UI.
Это руководство максимально дружелюбным для начинающих. Вы будете общаться со своим ИИ для автоматизации задач, без необходимости писать Python-скрипты.
Почему стоит отказаться от платных услуг ИИ
Платить 200 долларов в месяц за ИИ не способного посетить больше нескольких сайтов – как покупать спортивную машину, которая едет только на первой передаче. С DeepSeek-R1 и Browser-Use мы получим:
- Нулевые ежемесячные расходы: Работает на вашем компьютере, никаких подписок.
- Полную конфиденциальность: Ваши данные остаются локальными, а не на каком-то облачном сервере.
- Невероятную гибкость: ИИ может посещать тысячи веб-сайтов, заполнять формы или получать данные.
- Никаких хлопот с программированием: Вы просто говорите ему, что делать, на обычном языке.
Вот как вы можете создать такую же систему..
Шаг 1: Инструменты, с которыми вы работаете
- DeepSeek-R1 (8B, 4-bit): Думайте об этом как о сверхумном ИИ-мозге, который достаточно мал, чтобы работать на вашем ноутбуке. Он отлично подходит для ответов на вопросы, прогнозирования или обработки данных.
- Browser-Use Web UI: Это как предоставить вашему ИИ веб-браузер, которым он может управлять. Он может нажимать ссылки, печатать в формах или получать текст с веб-сайтов.
Вместе они как цифровой ассистент, который всегда готов серфить в интернете для вас.
Шаг 2: Подготовьте свой компьютер
Что вам нужно
- Приличный компьютер (минимум 8 ГБ ОЗУ, лучше 16 ГБ).
- Windows, macOS или Linux.
- Подключение к Интернету для настройки.
- Около 30–45 минут, плюс чашка кофе для моральной поддержки.
Установите базу
Python 3.10+:
- Перейдите на python.org и загрузите последнюю версию.
- Во время установки отметьте «Add Python to PATH» (Добавить Python в PATH) (поверьте, это избавит от головной боли).
- Откройте терминал (Command Prompt на Windows, Terminal на macOS/Linux) и введите:
python --version
- Если вы видите Python 3.10.0 или выше, все готово.
Node.js (для Browser-Use):
- Загрузите версию «LTS» с nodejs.org
- После установки проверьте, что все работает:
node --version
- Ищите что-то вроде v18.x.x.
Git:
- Скачайте его с git-scm.com
- Подтвердите, что он установлен:
git --version
Шаг 3: Настройте DeepSeek-R1
Загрузите DeepSeek-R1:
- Найдите «DeepSeek-R1 8B 4-bit» на Hugging Face или проверьте страницу DeepSeek на GitHub.
- Загрузите файлы модели (около 5 ГБ, так что лучше начать это, пока вы пьете кофе).
Запустите ИИ локально:
- Установите библиотеку transformers для работы с моделью. В терминале:
pip install transformers torch
- Создайте файл с именем
run_deepseek.py
и вставьте этот код:
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name = "path/to/deepseek-r1-8b-4bit" # Замените на ваш фактический путь к модели или репозиторий Hugging Face
# Загрузите модель с 4-битной квантизацией (требует библиотеку `bitsandbytes`)
model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map="auto", # Автоматически использует GPU, если доступен
torch_dtype=torch.float16, # Часто рекомендуется для больших моделей
load_in_4bit=True # Убедитесь, что это установлено, если вы используете 4-битные веса
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
def generate_response(prompt):
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_length=200,
do_sample=True, # Добавляет рандомность для лучших ответов
temperature=0.7, # Контролирует рандомность
top_p=0.9, # Ядерная выборка (метод сэмплирования)
pad_token_id=tokenizer.eos_token_id # Предотвращает предупреждение
)
return tokenizer.decode(outputs[0], skip_special_tokens=True)
print("DeepSeek-R1 готов! Введите запрос для тестирования.")
while True:
prompt = input("Вы: ")
if prompt.lower() in ["exit", "quit"]:
break
response = generate_response(prompt)
print("ИИ:", response)
- Измените
path/to/deepseek-r1-8b-4bit
на то место, где вы сохранили модель. - Запустите ее:
python run_deepseek.py
- Протестируйте ее, введя: «Расскажи мне интересный факт об ИИ» ыы можете получить что-то вроде: «ИИ-модели вроде меня могут обрабатывать миллиарды вычислений в секунду, но мы все еще не можем понять, почему коты любят коробки!»
Шаг 4: Добавьте Browser-Use Web UI
Установите Browser-Use:
- В терминале:
git clone https://github.com/browser-use/browser-use.git
cd browser-use
- Установите зависимости:
npm install
Запустите Web UI:
- Запустите сервер:
npm start
- Откройте браузер и перейдите на http://localhost:3000. Вы увидите интерфейс Browser-Use — довольно изящно, не так ли?
Свяжите его с DeepSeek-R1:
- На вкладке «Settings» (Настройки) Web UI добавьте адрес сервера DeepSeek-R1 (обычно http://localhost:8000, но проверьте свою настройку).
- Протестируйте его с запросом вроде: «Перейти на google.com и найти «прорывы ИИ 2025». Ваш ИИ должен взять под контроль браузер и показать вам результаты.
Шаг 5: Развлекайтесь с вашим ИИ-агентом
Теперь начинается самое интересное: указывать вашему ИИ, что делать! Вот несколько вещей, которые можно поппробовать:
- Получение новостей: Спросите: «Посети lenta.ru и перечисли главные заголовки». ИИ получиn их за секунды.
- Проверка социальных сетей: Попробуйте: «Найди в x.com «DeepSeek» и расскажи, что говорят люди». Он суммировал посты, отметив восторг по поводу скорости модели.
- Автоматизация форм: «Перейди на example.ru, заполни контактную форму с именем «Иван Иванов» и электронной почтой «ivan@example.ru». Работает как часы.
- Прогнозирование трендов: Станьте амбициозным и спросите: «Какой следующий большой тренд ИИ для 2025?» ИИ проанализирует технологические сайты и предскажет какой ИИ будет доминировать.
Шаг 6: Избегайте распространенных ошибок
- Делайте запросы четкими: Расплывчатые запросы вроде «Сделай что-то классное» путают ИИ. Попробуйте «Посети rbc.ru и суммируйте главную новость».
- Проверьте оперативную память: Если ваш компьютер замедляется, закройте другие приложения.
- Отлаживайте с помощью логов: Если Web UI глючит, проверьте его логи (обычно на вкладке «Logs» интерфейса).
- Будьте терпеливы: Первая настройка может занять около часа. Не торопитесь, и у вас получится.