ИТ-шное

Информационные технологии: люди, компьютеры и сети.

Домашний сервер видеонаблюдения Xeoma на нетбуке

Из устаревшего по разным причинам и вычеркнутого из основных процессов железа порой получается собрать все еще полезные устройства. Давно пылилось в шкафу две модели морально устаревшего девайса – NETбук типа eeePC. Вот на одном из них будем (и вполне успешно)

Забавная ИТ-археология

Забавная ИТ-археология

Забавная ИТ-археология – “Информационные технологии в новогоднем мюзикле «Чародеи»” Фильм «Чародеи» — это ещё один взгляд на любимый многими мир книги «Понедельник начинается в субботу» братьев Стругацких. Авторами сценария фильма тоже были они (хотя многое в нём пришлось переделать вопреки

Мегамозг стал частью Хабрахабра. Юбилей = 10 лет!

Хабрахабр - 10 лет!

В мае Хабрахабру исполняется ни много, ни мало — 10 лет! Кстати, по этому поводу уже можно почитать интересную статью про историю сайта. Произошло поглощение Мегамозга Мы обновили структуру наших проектов, в результате чего Мегамозг стал частью Хабрахабра — теперь все

Мониторинг производительности под Linux – “охота на грызунов”

Мониторинг производительности под Linux – “охота на грызунов”

Существует масса средств мониторинга операционной системы, но особый смысл имеет задача отловить момент возникновения проблемы и поймать причину высокой нагрузки или источник проблем c производительностью. Я называю это охотой на «грызунов» ресурсов. Для этого я сочинил для себя несложный скрипт

Linux – что внутри?

Внутреннее устройство Linux

Издательский дом “Питер” выпустил книгу Брайна Уорда, которая уже стала бестселлером на Западе – “Внутреннее устройство Linux“. Она описывает все тонкости работы с операционной системой Linux, системное администрирование, глубокие механизмы, обеспечивающие низкоуровневый функционал Linux. На страницах этого издания вы приобретете

Нейросеть на Python, часть 2: градиентный спуск

Часть 1 : Часть 2 Давай сразу код! import numpy as np X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ]) y = np.array([[0,1,1,0]]).T alpha,hidden_dim = (0.5,4) synapse_0 = 2*np.random.random((3,hidden_dim)) – 1 synapse_1 = 2*np.random.random((hidden_dim,1)) – 1 for j in xrange(60000): layer_1 = 1/(1+np.exp(-(np.dot(X,synapse_0))))