Показано 10
из 50 собранных постов.
В канале зафиксировано 167 сообщений.
Хотите больше — подключите PRO.
ServerAdmin.ru | Linux | DevOps
10.04.2026, 15:30
Реалии мониторинга в 2026 году. Вчера полдня, пока сидел на конференции, спамил внешний мониторинг, который доступность внешних узлов проверяет. Поначалу напрягся и расстроился, потом, когда увидел, что мигать начали все узлы, понял, что это что-то на хостинге с самим мониторингом происходит.
Для п…
Реалии мониторинга в 2026 году. Вчера полдня, пока сидел на конференции, спамил внешний мониторинг, который доступность внешних узлов проверяет. Поначалу напрягся и расстроился, потом, когда увидел, что мигать начали все узлы, понял, что это что-то на хостинге с самим мониторингом происходит.
Для последнего месяца-двух это обычная история. Уже даже внимания не обращаю. Про один такой случай писал отдельно не так давно.
С уведомлениями в Telegram, кстати, надо будет, судя по всему, прощаться. У меня они хоть и ходят пока ещё, но уже как-то доверия к ним нет. Из-за всей этой катавасии, самым надёжным каналом доставки уведомлений остаётся email. У меня он, кстати, основной.
Если кому интересно, для внешнего мониторинга использую Gatus в том числе для мониторинга за самими мониторингами. Уже почти 2 года трудится. Мне нравится.
0
16
492
ServerAdmin.ru | Linux | DevOps
10.04.2026, 06:11
Вчера был на конференции Deckhouseconf компании Флант. Пишу от себя, меня специально туда никто не звал. Сам просто увидел где-то анонс мероприятия и отправил заявку. Меня иногда спрашивают, как я попадаю на разные конференции. На некоторые приглашают, но чаще всего - нет. Сам отправляю заявку да и …
Вчера был на конференции Deckhouseconf компании Флант. Пишу от себя, меня специально туда никто не звал. Сам просто увидел где-то анонс мероприятия и отправил заявку. Меня иногда спрашивают, как я попадаю на разные конференции. На некоторые приглашают, но чаще всего - нет. Сам отправляю заявку да и всё. Пишу, что я DevOps инженер. Ни разу отказ не получал. Может как-то идентифицируют меня, может так совпадает. Приезжаю как обычный участник и не отсвечиваю. Я и пишу о поездках редко, только если что-то полезное увижу.
Расскажу о том, что мне показалось интересным и полезным. Эта конференция в основном посвящена продукту Deckhouse. Это большая коммерческая платформа, которая объединяет в себе управление контейнерами и виртуальными машинами на базе Kubernetes. И приправлено всё это различными вспомогательными сервисами, некоторые из которых полностью или частично переписаны самостоятельно - мониторинг, управление секретами, управление кодом, хранилище контейнеров и т.д.
Я впервые узнал про эту платформу на прошлой конференции. Выглядит всё круто и интересно, но в основном для большого и очень большого бизнеса. Я даже примерно не знаю, сколько всё это стоит, не интересовался. В прошлом году было упомянуто, что есть бесплатная community версия. Я мельком глянул на неё - там всё управление только через CLI, вообще никакого интерфейса нет. Практического применения в таком виде не увидел, даже пробовать не стал.
А в этом году рассказали и показали простой и удобный установщик и панель управления платформой, которая частично поддерживает community версию в режиме только просмотра, не управления. Установщик позволяет развернуть бесплатную версию на железо, виртуалки или в Yandex Cloud. Можно поставить как на одну ноду, так и на 2-3. То есть это нормальное решение для небольшого отказоустойчивого кластера.
На выходе вы получаете платформу высокой доступности для запуска контейнеров и виртуальных машин, которая управляется манифестами кубернетиса с поддержкой иностранный и отечественных ОС как основы кластера, так и машин, которые в нём могут быть запущены (винду тоже можно). Соответственно, все возможности Kubernetes реализованы и для виртуальных машин. Они запускаются в подах, автоматически переезжают, к ним прокидывается доступ через ингресс контроллер, нарезаются диски и т.д.
Полное сравнение редакций и обзор функциональных возможностей каждой из них можно посмотреть в табличке. Конечно, в бесплатной версии много всего урезано. Хотелось хотя бы на 3 ноды полнофункциональный кластерок 🙄 Может быть с ограничением по виртуалкам, чтобы вкусить все прелести на небольшой масштабе, но увы. Придётся довольствоваться тем, что есть. В принципе, и так немало. Можно попробовать. Думаю, разверну у себя и напишу, что получилось. Интересно самому посмотреть.
Также напомню тем, кто не знает, что команда Deckhouse полностью переписала Prometheus на C++ 😎, назвав его Prom++. Он тратит на работу в разы меньше ресурсов, чем оригинальный Prom, и меньше, чем VictoriaMetrics, которая тоже отличается легковесностью. Prom++ полностью совместим с оригинальным Prometheus и внедряется простой заменой оригинала. Вообще ничего больше делать не надо. Если вы используете Prometheus или VictoriaMetrics, можете без каких-либо усилий снизить потребляемые мониторингом ресурсы. Не вижу никаких причин не делать это прямо сейчас.
Остальные выступления послушал, но поделиться в формате заметки больше нечем. Там в основном про внутреннее устройство Deckhouse было. Из приятного - выиграл на стенде Selectel очередного Тирекса - мягкую игрушку. У меня дети любят их. Дома несколько штук есть, некоторые совсем поистрепались.
#devops #kuber #prometheus
0
6
636
ServerAdmin.ru | Linux | DevOps
08.04.2026, 15:30
Продолжение темы с OpenCloud. Я рассказал, как его развернуть. Теперь поделюсь своими впечатлениями. Я в итоге установил:
▪️Веб интерфейс для работы в браузере
▪️Приложение под Windows
▪️Приложение под Android
📌 Возможности администратора
Администратор может сам создавать пользователей. Назначать…
Продолжение темы с OpenCloud. Я рассказал, как его развернуть. Теперь поделюсь своими впечатлениями. Я в итоге установил:
▪️Веб интерфейс для работы в браузере
▪️Приложение под Windows
▪️Приложение под Android
📌 Возможности администратора
Администратор может сам создавать пользователей. Назначать им квоты на доступное место. Пользователей можно объединять в группы. Каких-то особых прав группам не назначить. Они используются для того, чтобы можно было дать группе права доступа к какому-то пространству.
Пространство - место для хранения файлов, которое не привязано к пользователю.
◽️Файлы пространства принадлежат только ему и даже при удалении пользователя, автора фала, сохраняются в пространстве.
◽️В пространстве ведётся логирование действий с файлами.
◽️Пространства можно по желанию подключать и отключать в приложениях.
Кроме управления пользователями, группами и пространствами в админке никаких настроек нет.
📌 Приложение под Windows
Оно простое как по интерфейсу и возможностям, так и по потребляемым ресурсам. Умеет работать через прокси и ограничивать трафик во время синхронизации.
Сетевое хранилище встраивается в проводник, наподобие того, как это реализовано в Яндекс.Диск. По умолчанию, отображаются все файлы, но сразу они не скачиваются. Если вы хотите, чтобы какой-то файл постоянно хранился локально, надо это явно указать.
Каких-то проблем или неудобств с синхронизацией я не заметил. Кладёшь на компьютере в директорию файлы, они автоматом улетают на сервер. В веб интерфейсе сразу их видишь.
📌 Веб интерфейс
Помимо доступа к файлам, с которыми можно работать (загружать, скачивать) в веб интерфейсе можно редактировать документы. Причём как одному, так и в режиме реального времени с другими пользователями. Они будут видеть ваши изменения практически мгновенно. Реализовано это всё на базе небезизвестной Collabora Online, так что добавить особо нечего. Про неё много информации в сети.
По сути кроме Collabora и Onlyoffice нет бесплатных движков для онлайн работы с документами. У них принципиальное отличие в том, что Collabora обрабатывает всё на сервере, а в Onlyoffice - на клиентах. Соответственно, первому нужно в разы больше серверных ресурсов для совместной работы, но зато клиентов не нагружает, поэтому и на смартфонах можно спокойно всё редактировать.
Как я уже упоминал, веб интерфейс очень простой и быстрый. С ним комфортно работать, особенно в сравнении с NextCloud, который лишний раз открывать не хочется. Помимо офисных форматов веб интерфейс поддерживает редактирование txt и markdown.
📌 Android приложение
Приложение умеет автоматически загружать фото и видео из галереи на сервер. Так же, как и десктопное приложение, по умолчанию ничего не хранит локально, если ты явно не укажешь, какие файлы и директории надо синхронизировать.
У меня было задвоение некоторых файлов в интерфейсе приложения. Загрузил через десктоп 2 файла, в вебе тоже увидел 2 файла, а в мобильном приложении их оказалось 4. После того, как я в мобильном приложении удалил копии, на самом деле удалились оригиналы. Они уехали в корзину, откуда я их восстановил. Приложение вышло совсем недавно, так что скорее всего найдутся и другие баги.
На смартфоне тоже можно редактировать файлы, зайдя в веб интерфейс. Можно collabora отдельно установить на смартфон, но не вижу большого смысла в этом. На смартфоне редактировать в любом случае неудобно, но если уж приспичит, можно и веб интерфейс открыть.
Продукт мне в целом понравился. Простой и лаконичный интерфейс. Минимум лишней функциональности. Реализована только работа с файлами и документами. Работает всё быстро, хороший отклик у веб интерфейса, пользоваться комфортно. Если взять мой опыт использования Яндекс.Диска, то OpenCloud закрыл бы все мои потребности. Отдельный вопрос с надёжностью и отсутствием багов. Но это без активного использования никак не проверить.
☝️Отдельно упомяну, что на сервере все файлы хранятся в открытом виде с оригинальными именами. Их легко бэкапить.
#fileserver
0
12
919
ServerAdmin.ru | Linux | DevOps
08.04.2026, 06:11
У меня уже год в закладках лежит сервис OpenCloud. Это платформа для обмена файлами, форк OwnCloud. Первый релиз вышел в феврале 2025 года. Я тогда его увидел, записал и решил подождать, чтобы посмотреть, что в итоге получится. Недавно в новостях проскочило, что вышла уже 6-я версия. Как-то бодро он…
У меня уже год в закладках лежит сервис OpenCloud. Это платформа для обмена файлами, форк OwnCloud. Первый релиз вышел в феврале 2025 года. Я тогда его увидел, записал и решил подождать, чтобы посмотреть, что в итоге получится. Недавно в новостях проскочило, что вышла уже 6-я версия. Как-то бодро они релизы выпускают. Думаю, сейчас уже можно развернуть и посмотреть, что получилось.
При беглом обзоре продукта создаётся впечатление, что это что-то неплохое. Серверная часть написана на Go, фронтенд на Vue.js, клиентская на C++. То есть это как минимум должно работать быстро. Продукт метит в конкуренцию с NextCloud и с таким стеком он как минимум в скорости работы его победит. А по функциональности надо смотреть, что в итоге получилось.
На этапе тестового запуская я немного погрустнел. OpenCloud - многокомпонентная система. Все её составные части надо увязать между собой: сам OpenCloud, прокси сервер Traefik, сервис онлайн документов Collabora Online, сервис идентификации и доступа Keycloak и некоторые другие компоненты. Вручную всё это настраивать было бы совсем хлопотно. В репозитории есть Docker Compose файлы для всего этого хозяйства.
Пробую запускать. Клонирую к себе отдельный репозиторий с compose:
# git clone https://github.com/opencloud-eu/opencloud-compose
Дальше надо заполнить файл с переменными:
# cp .env.example .env
Я указал только пароль и основные директории, остальное не трогал:
INITIAL_ADMIN_PASSWORD=secret_password
OC_CONFIG_DIR=/mnt/opencloud_data/config
OC_DATA_DIR=/mnt/opencloud_data/data
У директорий должны быть полные права для id 1000:
# chown -R 1000:1000 /mnt/opencloud_data
Попробовал запустить, ничего не получилось. Сервер запущен, но непонятно, как к нему обращаться. Нет открытых для HTTP портов. Пошёл читать документацию. Оказывается, по умолчанию сервер документов запускается без веб сервера. Надо запускать вместе с Traefik. Ну и для полноты картины добавлю сразу Collabora:
# docker compose -f docker-compose.yml -f weboffice/collabora.yml -f traefik/opencloud.yml -f traefik/collabora.yml up -d
Если запускаете в тестовом окружении без настроенного домена, то Traefik запустится с тестовыми доменами. Вам нужно будет в свой hosts файл добавить записи:
192.168.137.29 cloud.opencloud.test
192.168.137.29 traefik.opencloud.test
192.168.137.29 keycloak.opencloud.test
192.168.137.29 collabora.opencloud.test
192.168.137.29 wopiserver.opencloud.test
192.168.137.29 - адрес сервера, на котором запущен OpenCloud. Теперь через браузер по адресу https://cloud.opencloud.test я смог зайти в веб интерфейс, используя учётку admin / secret_password, как я указал в compose.yml.
Для того, чтобы корректно работала связка хранилища файлов и collabora, необходимо оба самоподписанных сертификата от доменов cloud.opencloud.test и collabora.opencloud.test добавить в доверенные. Без этого онлайн редактирование документов не заработает, браузер будет ругаться.
Веб доступ у меня нормально заработал. Я сразу через браузер залил туда папочку 10 ГБ с 4000 файлов. И пошёл ставить десктопные приложения. Для macOS и Linux они есть прямо в репозитории, а для Windows почему-то только ссылка на установщик, который лежит в Microsoft Store. Как напрямую скачать и установить приложение, я не понял. Пришлось качать установщик, который потом сам откуда-то скачал приложение.
Этот момент не понравился и выглядит странно. Продукт европейский, но они почему-то сознательно или не очень, но привязались к магазину Microsoft.
Android приложение есть в Google Store и F-Droid. Я установил из Google Store. Приложение маленькое и простое.
Я себе всё установил и настроил. Получилась заметка об установке. О работе с приложениями и общем впечатлении расскажу в вечерней заметке, так как тут уже кончился лимит на объём.
В целом, продукт неплохой, но пока ещё сильно похож на прародителя - ownCloud Infinite Scale. Чего-то нового и необычного я в нём не увидел.
#fileserver
0
12
948
ServerAdmin.ru | Linux | DevOps
07.04.2026, 06:11
Завершу тему с Loki и Mikrotik окончательным и максимально удобным решением, к которому я пришёл, и которое можно сохранить себе. Я в итоге применил Vector, про который я уже не раз упоминал и которым я пользуюсь для других задач. Мне этот сборщик, обработчик и отправитель логов нравится больше всег…
Завершу тему с Loki и Mikrotik окончательным и максимально удобным решением, к которому я пришёл, и которое можно сохранить себе. Я в итоге применил Vector, про который я уже не раз упоминал и которым я пользуюсь для других задач. Мне этот сборщик, обработчик и отправитель логов нравится больше всего. На примере настройки ниже вы сами убедитесь в его удобстве.
Ставим Vector любым удобным для вас способом. Я выбираю пакеты:
# bash -c "$(curl -L https://setup.vector.dev)"
# apt install vector
Приводим конфигурацию /etc/vector/vector.yaml к следующему виду:
sources:
syslog_udp:
type: syslog
address: 0.0.0.0:3514
mode: udp
sinks:
syslog_to_loki:
type: loki
inputs:
- syslog_udp
compression: none
encoding:
codec: json
endpoint: http://192.168.137.30:3100
labels:
job: mikrotik
Перезапускаем Vector:
# systemctl restart vector
Сравните это с конфигурациями Alloy. Небо и земля по читаемости. Здесь я на вход принимаю syslog любых форматов. А на выходе выпускаю json. Хотя у Vector в документации на выходе есть формат syslog. Я сначала с ним пробовал, так как это выглядит логично. Но на практике итоговый результат с json лучше.
Теперь идём в Mikrotik в раздел System ⇨ Logging ⇨ Actions и добавляем новое действие. Я назвал его Loki, указал адрес и порт сервера, где установлен Vector, в качестве Remote Log Format выбрал BSD Syslog. После этого в разделе Rules добавил новое правило для логов System действие - Loki. Всё, в Микротике больше ничего делать не надо.
Можно идти в Loki и смотреть логи. Не нужно специально настраивать парсинг логов, добавлять дополнительные метки и т.д. Всё, что надо, уже есть. При такой настройке Vector вы получите в логах следующие поля:
▪️hostname
▪️source_ip
▪️message
Ну и некоторые другие, которые уже не так нужны. Главное, что есть эти. Теперь можно легко различать логи из единого потока по устройствам. И не нужно настраивать разные приёмники или как-то насыщать логи дополнительной информацией об отправителях. При других настройках, в том числе в Alloy, я не смог добиться автоматического парсинга этих полей. А в Vector заработало сразу, благодаря его внутреннему преобразованию syslog в json.
Рекомендую познакомиться с Vector, если ещё не доводилось пользоваться. Он берёт логи из любых источников, например из обычного файла, docker logs, journald, kafka, kubernetes logs, logstash и ещё 40 различных программ и кладёт их в кучу разных источников: loki, elasticsearch, prometheus, clickhouse, postgres, текстовый файл и ещё около 50-ти различных типов. То есть он может взять практически всё что угодно, отправлять куда угодно, попутно преобразовывая. И при этом у него отличная документация с примерами.
#loki #mikrotik
0
14
1 248
ServerAdmin.ru | Linux | DevOps
06.04.2026, 15:30
Расскажу историю по мотивам утренней, как моя невнимательность и ошибки бесплатных СhatGPT и Qwen привели к тому, что я несколько часов ходил по кругу и не мог решить простейшую задачу. Думаю, это будет наглядным примером того, как не стоит сильно доверять ИИ даже в простых задачах.
Как я уже писал…
Расскажу историю по мотивам утренней, как моя невнимательность и ошибки бесплатных СhatGPT и Qwen привели к тому, что я несколько часов ходил по кругу и не мог решить простейшую задачу. Думаю, это будет наглядным примером того, как не стоит сильно доверять ИИ даже в простых задачах.
Как я уже писал, у меня была задача - собирать логи Mikrotik в Loki. Первое, что я сделал - задал вопрос на эту тему ChtaGPT, чтобы в целом понять структуру задачи. Он ответил вполне логично, что можно взять устаревший Promtail, или современный Alloy. И сразу предложил к нему конфигурацию.
Я, уже наученный опытом использования конфигураций от ИИ, сразу же пошёл в документацию, чтобы самому собрать нужные параметры. Меня интересовали параметры для раздела loki.source.syslog. Я этот поисковой запрос вбил в Яндексе, в надежде сразу попасть в документацию, как это обычно бывает. И я действительно попал в документацию Grafana, только для продукта Agent, который был предшественником Alloy. У них одинаковая структура конфигурации, просто у Alloy намного больше параметров. Но визуально они не отличаются.
Я собрал конфиг для syslog на основе этой документации. Запустил, всё работает. Оправляю логи с Mikrotik и получаю ошибку парсинга. Я опять пошел в ИИ и спросил его, в чём ошибка и как решить. Он логично отвечает, что Alloy ожидает RFC5424, а получает RFC3164-подобный формат от Микротика.
И дальше он предлагает параметр, который решает эту проблему:
syslog_format = "rfc3164"
❗️Но вставляет его не в тот раздел конфигурации. Я добавляю, запускаю, получаю ошибку конфигурации на параметр syslog_format, якобы его не существует. Пишу это в ИИ и он мне на голубом глазу отвечает:
В Grafana Alloy нет параметра syslog_format (я привёл аналогию с другими инструментами — здесь это не работает).
Возвращаюсь на вкладку документации для Agent, всё там проверяю и действительно не вижу этого параметра. Ну а дальше поехали всевозможные костыли, на которые я потратил кучу времени, но задачу таки решил через одно место.
И уже позже, когда я разбирался с метками на основе syslog полей, я попадаю в документацию Alloy и с удивлением вижу там:
The messages must be compliant with the RFC5424 syslog protocol or the RFC3164 BSD syslog protocol.
Это было как гром среди ясного неба. Я не понимаю, чем я вообще занимался и какую задачу решал. Сравнил две вкладки с документацией Agent и Alloy. Они очень похожи, так как последний является продолжением первого, просто для него добавились дополнительные параметры.
Сделать нужно было вот так:
loki.source.syslog "syslog_in" {
listener {
address = "0.0.0.0:1514"
protocol = "udp"
syslog_format = "rfc3164"
}
forward_to = [loki.process.syslog_process.receiver]
}
А ИИ предложил так:
loki.source.syslog "syslog_in" {
listener {
address = "0.0.0.0:1514"
protocol = "udp"
}
syslog_format = "rfc3164"
forward_to = [loki.process.syslog_process.receiver]
}
Поставил параметр не в ту секцию. Когда получил ошибку на syslog_format, с какого-то перепугу заявил, что его не существует. А я из-за невнимательности поверил и решил, что его действительно нет.
Параллельно я этот же вопрос решал с Qwen и он тоже не дал рабочей конфигурации для Alloy.
Такая вот для меня поучительная история получилась. Не знаю, как работают платные версии, но бесплатные явно путаются и в некоторых сферах работают плохо. Я так понял, что тут наложилось то, что был Promtail, Agent и теперь появился Alloy. Все 3 программы решают одинаковые задачи, существовали одновременно, конфигурации похожи, поэтому получается путаница. Проще было с самого начала сделать всё самому. Это бы заняло 10-15 минут. А в итоге несколько часов потратил. Правда, многому научился. И получил в итоге самый удобный вариант, о котором напишу в следующей заметке.
☝️ По сути тут ошибся я сам, с себя ответственности не снимаю. С ИИ какой спрос? Он постоянно ошибается. В итоге наложилось одно на другое. ИИ мог бы помочь мне, но сделал ещё хуже - пустил по ложному следу.
#ai
0
21
1 324
ServerAdmin.ru | Linux | DevOps
06.04.2026, 06:11
Вчера в очередной раз разбирался с Loki. Хочу в него собрать все необходимые мне логи, чтобы получить готовое универсальное решение. В основном всё уже разобрал, остался обычный формат syslog, чтобы собирать логи с сетевых устройств. Loki принимать напрямую syslog не умеет. Нужно использовать какое-…
Вчера в очередной раз разбирался с Loki. Хочу в него собрать все необходимые мне логи, чтобы получить готовое универсальное решение. В основном всё уже разобрал, остался обычный формат syslog, чтобы собирать логи с сетевых устройств. Loki принимать напрямую syslog не умеет. Нужно использовать какое-то промежуточное звено. И выбор тут такой:
◽️Alloy или Promtail
◽️Vector или похожий сторонний софт
◽️Сбор логов в текстовый файл с помощью rsyslog и отправка
Решил использовать рекомендуемый самой Графаной Alloy. Конфигурация там простая. В общем случае достаточно будет такой:
loki.write "default" {
endpoint {
url = "http://192.168.137.30:3100/loki/api/v1/push"
}
external_labels = {}
}
loki.source.syslog "syslog_in" {
listener {
address = "0.0.0.0:1514"
protocol = "udp"
labels = { job = "syslog" }
}
forward_to = [loki.process.syslog_process.receiver]
}
loki.process "syslog_process" {
stage.labels {
values = {
remote_ip = "__syslog_connection_ip_address",
hostname = "__syslog_message_hostname",
}
}
forward_to = [loki.write.default.receiver]
}
Принимаем логи по UDP на порт 1514, добавляем немного меток и отправляем в Loki. Кажется, всё просто, но на деле - нет. Если у вас устройство шлёт syslog формата RFC5424, то проблем не будет. Для тестов взял Mikrotik, так как мне важно собирать с них логи. И ничего не получилось. Alloy ожидает логи по стандарту RFC5424 (structured syslog), а Mikrotik шлёт в неполном формате RFC3164. Там логи вида:
system,info,account user admin logged in from 192.168.137.10 via ssh
Alloy ругается на этот лог и не может его распарсить. Почитал документацию alloy и нашёл параметр:
syslog_format = "rfc3164"
Добавил его, логи всё равно не идут. Поменял в Mikrotik формат логов с default на BSD Syslog и логи пошли в Loki, но без информации об адресе отправителя, что очень неудобно, когда у тебя много устройств.
Дальше я реализовал для сбора несколько вариантов, чтобы понять, какой удобнее всего:
◽️Принимать логи в rsyslog в текстовые файлы, а потом забирать их alloy.
◽️Принимать логи в rsyslog насыщать их дополнительными полями и переправлять в alloy.
◽️Использовать для приёма логов Vector. Он принимает микротиковские логи разных форматах.
В первых двух способах парсинг полей недоступен. Чтобы он работал, надо вручную добавлять этап обработки микротиковских логов какой-то регуляркой, выделять поля и передавать структурированные данные в alloy. Я попробовал быстренько это реализовать, но не получилось. Надо разбираться и отлаживать. Задача нетиповая, ИИшки не помогают, предлагают откровенную неработающую лажу. Мне не сказать, что сильно это надо. Конкретно от Микротиков мне важно просто хранить текстовые логи. Их обычно немного, какие-то выборки и группировки не нужны.
Пример того, как записать логи формата syslog с Микротиков в текстовые файлы, я показывал ранее. Сохраняем логи в разные файлы и забираем их с помощью Alloy. Это самый простой способ, что называется - в лоб. Работает надёжно и прост в настройке. Отладка особо не нужна, у меня сразу заработало, в отличие от других вариантов. Фильтрация устройств работает по имени файла, в котором отражён IP.
Второй вариант с пересылкой через rsyslog у меня тоже получился, хоть и не сразу. Пришлось повозиться и отлаживать. Ниже часть конфигурации rsyslog.conf, которая отвечает за приём логов формата default в Mikrotik и пересылку в локальный alloy с добавлением полей до формата RFC5424:
module(load="imudp")
input(type="imudp" port="514" ruleset="to_alloy")
template(name="RFC5424_Wrapper" type="string"
string="<%PRI%>1 %TIMESTAMP:::date-rfc3339% %HOSTNAME% mikrotik - - - %msg:2:$%\n"
)
ruleset(name="to_alloy") {
action(type="omfwd"
target="127.0.0.1"
port="1514"
protocol="udp"
template="RFC5424_Wrapper")
stop
}
В итоге самым удобным вариантом оказался Vector. Не хватает лимита по объёму, так что вечером покажу подробно отдельной публикацией.
#loki #mikrotik
0
11
1 471
ServerAdmin.ru | Linux | DevOps
04.04.2026, 12:30
Я периодически получаю всякие подарки от вендоров и приглашения на мероприятия. Последнее частенько бывает. Обычно нет времени ходить, особенно сейчас, когда до Москвы 1,5 часа ехать, а в центр - 2-2,5. Но на днях меня прям удивили, поэтому расскажу историю.
Уехал из дома по делам, когда позвонил к…
Я периодически получаю всякие подарки от вендоров и приглашения на мероприятия. Последнее частенько бывает. Обычно нет времени ходить, особенно сейчас, когда до Москвы 1,5 часа ехать, а в центр - 2-2,5. Но на днях меня прям удивили, поэтому расскажу историю.
Уехал из дома по делам, когда позвонил курьер и сказал, что приехала доставка. Дома была супруга, предупредил её, чтобы забрала. Она берёт коробку, в коробке непонятно что. НО! Одно время она занималась кондитерством и узнала по названию на коробке известную фирму, которая делает торты на заказ. Заглянула внутрь и не поняла, зачем в коробку от торта запихнули какой-то сервер. Сразу не сообразила, что это торт.
Я приехал, смотрю в коробку и не понимаю, что это такое. И как вообще жена поняла, что это сервер. По надписям NVIDIA стало понятно, что это что-то из железа. Но лично я платформу на базе модулей B300 не видел ни разу даже на картинках. Не представлял, что они так выглядят.
В общем, это был такой необычный торт и приглашение на их бесплатную конференцию по искуcственному интеллекту. Я, кстати, приеду, если ничего не изменится. Тема горячая, интересно послушать. Ссылок никаких не оставляю, потому что это не реклама. У меня никто ничего не заказывал, маркировки нет. Селектелу если что-то надо, то он заказывает обычную рекламу. Подарков от него у меня много. Шлют просто так, писать ничего не просят. Это моя частная инициатива. Тортик такой получил не только я. Видел у других блогеров то же самое.
#разное #железо
0
27
1 915
ServerAdmin.ru | Linux | DevOps
03.04.2026, 15:30
▶️ Очередная подборка авторских IT роликов, которые я лично посмотрел и посчитал интересными/полезными. Это видео из моих подписок за последнее время (обычно беру период в 2 недели), что мне понравились.
🔥 NGINX is Dead? // Angie Web Server Migration Guide
Angie заметили иностранные блогеры, как за…
▶️ Очередная подборка авторских IT роликов, которые я лично посмотрел и посчитал интересными/полезными. Это видео из моих подписок за последнее время (обычно беру период в 2 недели), что мне понравились.
🔥 NGINX is Dead? // Angie Web Server Migration Guide
Angie заметили иностранные блогеры, как замену Nginx. Автор сделал небольшой обзор, показал, как перейти с Nginx, и отметил некоторые преимущества. Каждый второй комментарий к видео на тему того, что Angie - российская разработка. Я не удержался и каждому ответил, что Nginx, самый популярный веб сервер в мире, вообще-то тоже родом из России.
⇨ HTTP/2 и HTTP/3: настройка, достоинства и недостатки
Большой наглядный разбор протоколов с примерами. Автор сразу на веб сервере меняет настройки и демонстрирует то, что рассказывает. Очень наглядный формат повествования.
⇨ Proxmox Ollama OpenWebUI LXC для самых маленьких
Очень простая и быстрая установка и настройка Ollama и OpenWebUI в LXC-контейнере на Proxmox. Это веб интерфейс для взаимодействия с различными моделями. В данном случае, с локальными. Автор для примера установил одну простенькую модель и пообщался с ней.
⇨ Локальная Ollama в Excel
Продолжение первого видео, где используется локальная модель для взаимодействия с табличкой Excel через query запросы. Хороший практический пример использования небольшой локальной модели.
⇨ Getting started with OpenClaw (VPS Set-Up simply + secure) Tutorial
Инструкция по настройке и использованию OpenClaw - популярного последнее время агента для взаимодействия с ИИ. В видео автор много всего интересного рассказал по поводу моделей и их использования. Так что послушать полезно и для общего образования, даже если настраивать не собираетесь.
⇨ OpenMediaVault 8: Install, RAID, File Sharing & More - OMV 8 Series Ep. 1
Автор анонсировал серию уроков по настройке сетевого хранилища на базе Debian - OpenMediaVault. Неплохое решение. После TrueNAS, мне кажется, на втором месте по популярности. В видео в целом ничего особенного - установка, создание разделов, сетевых дисков, пользователей.
⇨ Changedetection
Обзор полезного и функционального сервиса changedetection.io для отслеживания изменений на сайтах. Я тестировал его и писал заметку.
⇨ Это наконец-то исправляет ошибки в пользовательском интерфейсе Proxmox
Обзор PegaProx, про который я недавно писал. Автор похвалил панельку. Говорит, что намного удобнее и нагляднее стандартного интерфейса. Правда речь идёт о многокластерных инфраструктурах, где продукт наиболее широко раскрывается.
⇨ Программное обеспечение с открытым исходным кодом, которое я буду использовать в 2026 году!
Большой обзор от автора открытого ПО, которое он использует. В целом, там ничего особенного. Практически всё, что он перечислил, я знаю и в разное время обозревал на канале: Authentik, Nextcloud, Beszel, Vaultwarden, Pangolin, Netbird, Nexterm, Guacamole, Peertube и т.д. Интересный и ёмкий формат видео, из которого можно что-то полезное для себя вынести.
⇨ ZimaBoard 2. Компактный домашний сервер
Очень подробный обзор (57 минут 😱) на популярный последнее время одноплатник. Это не спроста. Судя по всему производители вложились в маркетинг. Все ломанулись снимать обзоры на него. Так то железка прикольная.
⇨ Docker Swarm. Что за РОЙ? Обзор технологии оркестрации Докер Сворм
Большой обзор Docker Swarm. Подойдёт для тех, кто хочет понять, что это такое и как работает.
#видео
0
16
1 897
ServerAdmin.ru | Linux | DevOps
03.04.2026, 06:11
Ездил вчера к родителям на дачу, покопаться в старом железе. У меня там склад на чердаке. Привёз пару системников и свой старый, самый первый, как тогда говорили, ЖК монитор SyncMaster 720T. Ему уже лет 20-25, но до сих пор работает. Очень радовался, когда его приобрёл. Это был прям шаг вперёд в 21-…
Ездил вчера к родителям на дачу, покопаться в старом железе. У меня там склад на чердаке. Привёз пару системников и свой старый, самый первый, как тогда говорили, ЖК монитор SyncMaster 720T. Ему уже лет 20-25, но до сих пор работает. Очень радовался, когда его приобрёл. Это был прям шаг вперёд в 21-й век. До него были пузатые, тяжеленные ЭЛТ мониторы. А тут такой малыш с PVA матрицей. Работает до сих пор. Причём по сравнению с современными не сказать, что есть прям какой-то прорыв. Конечно, современные намного лучше, но всё равно это продукты одного порядка. Нет никакого вау эффекта с перехода со старого на новый, как это было при переходе с ЭЛТ.
Не знаю, что на меня нашло. Захотелось собрать старый компьютер с хрустящим HDD, поставить туда Windows XP, старые программы и игры. Можно по идее и что-то постарее. Мой первый компьютер, куда я сам установил систему, был с Windows 98. Но больше всего мне запомнилась именно XP. Я тогда в универе учился, купил диск с какой-то самой первой, ещё английской версией XP. Установил себе на компьютер и очень проникся новыми полупрозрачными иконками. Эта система была заметно красивее предыдущих: 98, ME, 2000, которые я себе устанавливал в разное время. С тех пор больше не было такого вау эффекта с выходом новых версий Windows.
❓Как понять, что ты правильно выбрал для себя профессию? Я недавно переехал в свой дом, сделал себе кабинет. И вот сейчас смотрю на него, а он похож на мастерскую. У меня тут везде системники, мониторы, различные комплектующие. Вдоль стены стоят стеллажи с коробками и там тоже железо: старые и не очень ноутбуки, штук 30-40 различных жёстких дисков, свитчи, роутеры, провода и прочие комплектующие. Я непроизвольно, шаг за шагом, создал среду, в которой мне интересно и комфортно.
И вот теперь из всего этого что-то собираю. Нашёл две материнки, где в одной 8, в другой 6 SATA портов. Сейчас их тоже соберу в корпусах, для чего-нибудь приспособлю. Какой-то практической пользы в этом нет. Я без этих серверов жил и проживу ещё. В принципе, могу и что-то новое купить (если память подешевеет), но так как не сильно надо, деньги тратить не хочется. Мне просто нравится этим заниматься.
Купил к этим будущим серверам новый ИБП - Ippon Kirpich 1050. Когда первый раз увидел название, подумал, что прикол какой-то. Потом уточнил - действительно такая линейка есть. Всегда считал, что IPPON - это какая-то китайская фирма. Я и на работу брал иппоны, и дома один работает - нормальный ИБП, уже пару раз менял ему аккумулятор. А это оказывается российская компания. Она же и дала название линейки - Kirpich. УПС выглядит реально как большой кирпич. Взял его, потому что розеток много, ЖК дисплей есть и физическая кнопка отключения писка.
А вы дома или в свободное время ковыряетесь в железе? Я сколько себя помню в профессии, всегда этим занимался, поэтому у меня везде залежи железа. Когда-то давно серваки жужжали прямо у меня в комнате, а спал я в берушах. А кто-то ноут закроет и забывает всё это. Даже системника дома нет. Сейчас всё арендное или готовое в стойках стоит. Я и сам по работе давно уже с железом не работаю, а дома нравится с ним возиться, но не всегда было время и место для этого. Сейчас появилось немного. Есть хотя бы где всё это разместить.
Пока писал, чуть не забыл, что хотел оставить ссылку на сайт со старым софтом - https://www.oldversion.com. Хостинг на Digital Ocean, наши запрещаторы 🤬 (чтоб у них запрещался отсохла) его зачем-то блокируют, так что напрямую не зайти. Там и софт, и игры есть. Для старой системы полный набор.
#железо
0
42
2 059
Ещё 40 собранных постов скрыто
Подключите PRO, чтобы видеть всю собранную историю постов