Как переносить окна между мониторами windows 10

Сбор данных для расширенной аналитики по сравнению с для основных логотипов

За аналитические журналы взимается плата в размере 2,682 евро за ГБ (при оплате по мере использования в Западной Европе, при высоком потреблении вы можете зарезервировать и получить до 1,87 евро за ГБ ГБ при 5 ТБ в день), и цена включает хранение. на 30 дней (или 90 дней, если вы купите Sentinel вдобавок к этому). В вашем распоряжении полный набор функций, включая объединение, суммирование, машинное обучение, статистику, оповещение и так далее. Если вы хотите хранить данные на этом уровне дольше (с множеством вариантов аналитики), вы можете приобрести хранение по цене 0,117 евро за ГБ в месяц. Второй вариант (см. ниже) — это новый уровень архива.

Новый вариант Basic Logs — это уровень, на котором вы платите всего 0,584 евро за гигабайт приема, и в цену входит хранение в течение 8 дней. Его нельзя расширить, но вы можете поместить туда уровень архива. В журналах Basic можно выполнять поиск с высокой скоростью (строки ответов в секундах), но параметры языка запросов ограничены поиском, синтаксическим анализом и фильтрацией. Поэтому можно добавлять столбцы, анализировать текст с помощью правил Regex, искать слова и вставлять элементы в строку, очищать данные, фильтровать вывод даже из динамически созданного столбца из предыдущего шага и так далее. Но нельзя заниматься аналитикой — суммировать, агрегировать, применять анализ временных рядов типа прогнозирования дальнейшего развития, присоединяться к другим таблицам. Кроме того, взимается плата за отдельные запросы, так что вы платите 0,006 евро за ГБ данных, которые вы сканируете (через которые проходит весь запрос, например данные за последний час, независимо от результата). Базовые журналы сейчас задаются по таблицам, а из встроенных только ContainerLog (Azure Monitor for Containers), трассировка приложений из Application Insights и далеепользовательские таблицы.

В нашем примере с вычислительной моделью мы обязательно включим циркуляцию категорий. Как правило, для журналов безопасности, которые я хочу анализировать в Sentinel (анализировать = анализировать, группировать, искать аномалии, сопоставлять), мне нужен хороший уровень анализа. Но я часто использую журналы Basic для журналов криминалистического типа, где нужен простой поиск, например журналы из контейнеров и приложений.

Уровень архива, поиск вакансий и восстановить

Даже если это аналитические или базовые журналы, вы можете перенести таблицу на уровень архива через определенный период времени. Таким образом, в случае аналитических журналов у вас есть три уровня: хранение, которое включено в стоимость приема (30 дней с Azure Monitor и 90 дней при покупке Sentinel) + возможное расширенное хранение за плату (на том же уровне). + временный архив. Для базового лога это 8 дней + временный архив. На уровне архива вы платите 0,024 евро за ГБ в месяц.

Читайте также:  Как поменять windows 7 professional на ultimate

Мы можем искать данные в архиве, используя ограниченный запрос, который функционально соответствует тому, как работают журналы Basic. Таким образом, мы можем фильтровать, анализировать, создавать столбцы и так далее, но не агрегировать, суммировать, объединять. В отличие от уровней Analytics или Basic, эти задания поиска работают асинхронно: введите запрос, он будет работать в фоновом режиме, а его результаты будут сохранены в виде специальной новой таблицы в рабочей области Log Analytics. Вы платите 0,006 евро за отсканированный ГБ (так же, как и для журналов Basic) и загрузку результатов в новую таблицу (2,682 евро за ГБ). Если результаты загружаются в виде отдельной таблицы полной аналитики, вы можете продолжать работать с ними — уточнять, агрегировать, визуализировать, объединять и т. д.

Второй вариант — сохранить весь блок данных (таблицу и время).диапазон с ним, если минимум — это окно в два дня) для полива, т.е. для перемещения его данных на быстрый аналитический уровень. Это оплачивается с комиссией в размере 0,117 евро за ГБ и одним днем ​​на быстром уровне. В то время как в первом случае я буду платить относительно дорого за глотание, поэтому Search Job подходит там, где я хочу извлечь из архива только небольшое подмножество конкретно определенных данных (например, данные одного пользователя), процесс полива весь блок (без фильтрации) полезно в тот момент, когда вы на самом деле не знаете, что именно ищете — вам нужно иметь все в своем распоряжении в полном объеме и делать анализ на нем (вы изучаете потенциальную безопасность поток и поиск подсказок).

Звучит сложно, но, надеюсь, это будет понятно в следующем расчете.

Модель и расчет

У нас следующая ситуация:

  • 10 ГБ ежедневных журналов безопасности
    • нам требуется расширенный анализ данных за период 4 месяца
    • в течение следующих 8 месяцев мы хотим иметь возможность искать данные в архиве, возможно, восстанавливать их
  • 10 ГБ ежедневных журналов приложений
    • нам нужен поиск, а не расширенная аналитика
    • нам необходимо хранить данные сроком на 12 месяцев в архиве с возможностью поиска в них
  • Школа 1 — нам нужно искать файлы ОШИБОК определенного приложения в общедоступных данных (файлы представляют собой 100 МБ данных), и мы выполняем эту задачу 200 раз в месяц
  • Школа 2 — нам нужно искать журналы ОШИБОК определенного приложения в архиве в течение 5 дней (логи представляют собой 500 МБ данных), и мы делаем эту задачу 10 раз в месяц
  • Школа 3 — нам нужно проанализировать поведение (мы не знаем точно, что ищем) одного приложения по данным в архиве в течение 5 дней (объем данных приложения составляет 1 ГБ данных) и делаем эту задачу5x мД›сГДЌнД›
  • Школа 4 — нам нужно проанализировать поведение одного приложения по данным в архиве в течение 5 дней (объем данных приложения составляет 25 ГБ данных) и мы делим эту задачу на 5 раз в месяц
Читайте также:  Как установить принтер hp laserjet 1000 на windows 10 64 bit

Мы сравним классический вариант (все на аналитическом уровне и платное удержание) с обычным. оптимизированный дизайн с использованием основных журналов и архива. Я посчитаю объемы и связанную с ними цену в конце периода, т.е. сколько я заплачу в 12-м месяце (все последующие потом так же без изменения количества данных на входе… читай с одной стороны, исчезнуть с другой стороны)

Базовая цена

Если использовать классический расчет, нам потребуется 20 ГБ в день для загрузки, т. е. 600 ГБ в месяц. Стоимость 600 х 2,682 евро = 1609 евро. Цена включает хранение в течение 30 дней, нам нужно 12 месяцев, поэтому мы должны доплатить за 11 месяцев — в двенадцатом месяце у нас есть один месяц, покрываемый загрузкой, и 11 x 600 ГБ хранения дополнительно. Это 11 x 600 x 0,117 евро = 772 евро.

Итого 2381 евро в месяц.

Оптимизированный вариант использует 10 ГБ в день для аналитического уровня, т. е. 300 ГБ в месяц за 805 евро. Для этого мы дополнительно купим 3 месяца хранения (один входит в стоимость, нам нужно три, а нам нужно 4), что составляет 1200 ГБ x 0,117 евро = 140 евро. Мы покроем следующие 8 месяцев архивом, т. е. 8 x 300 ГБ x 0,024 евро = 58 евро.

Для журналов приложений мы перейдем к базовым журналам, которые будут составлять 300 ГБ x 0,584 евро = 175 евро. Я пока не буду учитывать, что 8 дней хранения включены в стоимость, поэтому добавляем в архив 12 месяцев, т.е. 12 х 300 ГБ х 0,024 евро = 86 евро.

Итого 1264 евро.

Поиск объектов

Для сравнения мы должны сказать, что в классическом случае (аналитический уровень и расширенныйудержание) все эти действия включены в стоимость.

На этапе 1 мы переходим к базовым журналам, и цена запроса зависит от объема сканируемых данных. Завтрашние данные = 1 день = 10 ГБ. Таким образом, цена будет 10 x 0,006 евро, то есть 0,06 евро. Если мы будем делать что-то подобное 200 раз в месяц, мы получим 12 евро.

Читайте также:  Как сохранить размер окна windows 10

Школа 2 приводит к заданию поиска в архиве, где мы будем искать данные за 5 дней (50 ГБ), что составляет 50 x 0,006 евро = 0,3 евро. Результаты будут включены в аналитический уровень, а результат, как указано, представляет собой 100 МБ данных (остальные — другие приложения, некритичный шум и т. д.), что обойдется нам в 0,1 x 2682 евро = 0,27 евро. Если разделить все это 10 раз в месяц, то получится 2,7 евро.

В раунде 3 проблема заключается в том, что мы не знаем точно, что мы ищем, поэтому у нас нет очень конкретного запроса, который скажет нам, что нам нужно, или даже сделать такой запрос, который мы можем , но для этого требуются аналитические функции (объединения, агрегации). Мы могли бы решить эту проблему, создав общее задание поиска, которое извлекает все данные конкретного приложения (согласно спецификации это 1 ГБ данных). Таким образом, сканирование 50 ГБ данных обойдется нам в 50 x 0,006 евро = 0,3 евро и получение 1 ГБ данных, то есть 2,682 евро. Затем эти данные находятся в аналитическом ярусе, поэтому их дальнейшее изучение уже бесплатно. Если я буду делать это 5 раз в месяц, это будет около 15 евро.

Кто еще в 4-м раунде? Наша способность фильтровать данные здесь на высоте, потому что поиск возвращает 50% всех данных. При использовании поиска я бы снова заплатил 0,3 евро за сканирование, но загрузка будет стоить 25 x 2,682 евро = 67 евро. Так что точно будет лучше ничего не фильтровать и предпочесть орошать данные. Это стоит нам всего 50 ГБ x 0,117 евро = 5,9 евро за один день, который я могу проанализировать. Определенно лучший выбор. Если я сделаю это 5 раз, чтобымесяц, мы около 30 евро.

Что выбрать — Искать работу или Восстановить? Если я делаю Restore только на один день (то есть один день расследования), то оно того стоит, если я правильно расставлю уравнения и графики, когда вы ожидаете, что поиск вернет более 4% всех отсканированных данных.

В моем модельном случае мы должны рассчитать в общей сложности 0 евро для классического месяца и 60 евро в месяц для оптимизированного.

Я думаю, что новые функции Log Analytics — отличный финансовый отчет для Azure Monitor (в настоящее время особенно журналов из контейнеров), Application Insights и Microsoft Sentinel. В пятой части разберемся во всех измененных функциях на практике.

Поделиться с друзьями
ОС советы