Настраивал сеqчас линукс-терминал “Terminator”. А настройки там на русском языке сами включились. И вот смотрел я на чекбокс “Копирование на выбор” и думу думал…
Вот что это могло бы быть? :) Даже мысль появилась - вдруг при копировании какие-то варианты будут предлагаться… хотя это чуднО как-то было бы.
А после того, как понял, что теперь нормально заработало авто-копирование в буфер при выделении мышкой - осенило! :)
Это так чудно перевели “Copy on selection”.
Офигеть. Башку чуть не сломал, пытаясь понять почему у меня сервер игнорит запись в /etc/hosts и резолвит домен напрямую через сетевой интерфейс. Даже не выдержал - ребутнул сервак :) Не помогло.
Смотрю дальше, смотрю. Дай-ка, думаю, заменю табуляцию на пробел в строчке типа:
127.0.0.1 <-->some.domain.com И охреневаю. У меня где-то при копировании \t заменился на набор символов “<–>“. :))) Во делаааа…
Тестирую вторую версию полностью автоматического новостного Django-агрегатора , где не только короткая выжимка “сути” новости в виде анонса, но и HTML страница со статьей (из любого источника), из которой выкушен весь мусор, но остается основное HTML форматирование. А по содержанию это 30% от оригинала.
В этот раз взял для теста хайповую тематику - криптовалюты. :) bitcoin.icexp.com (udp: уже выключил). Правда, тут получаются слишком короткие “выжимки”, потому блок твиттера надо поменьше ставить.
Добавил вчера “исправляльщик пингера” на сайт (+ бинарник под Windows)
Ну и на GitHub исходник на GO тоже. :)
Заодно попробовал сбилдить и потестить под Linux на VPS-ке. Все работает так, как и задумывалось. Это радует.
Кстати, хорошо, что я еще вовремя вспомнил про то, что под Windows и Linux разные сепараторы путей в переменной $PATH - точка с запятой и двоеточие, соответственно.
Наконец, спустя много лет заменил заглушку на http://privacy-formula.com/ на что-то интересное. :)
Теперь там автоматический агрегатор новостей на тему “privacy”. Парсятся разные источники. Сначала одна библиотека извлекает главный контент со страницы (ищет саму статью), потом другая делает text summarizing - короткую выжимку именно значимых предложений.
Ну а сам сайт на Django в виде 1 страницы в анонсами статей, где по ссылке “подробнее” отправляет на нужный ресурс.
Кстати, повесил еще плагин от Google для автоперевода.
Решил попробовать сменить IDE. Ведь удобнее, если на всех языках можно фигачить в привычной среде. А тут оказалось, что под VS Code еще и плагинов куча полезных.
Для начала сразу скачал и установил шрифт Fira Code. И включил в редакторе использование лигатур. Недавно на хабре статья просто попалась. :) А так бы и не задумывался о таком.
Для Go меня приятно удивило автоматическое добавление (и ведение) импортов при упоминании в коде.
День еще только начался, а у меня уже шутка дня. :)
Написал вчера на Go “обертку” для ping, чтобы она автоматически убирала http:// и пинговала домен, вместо того, чтобы выдавать ошибку “адрес не найден”. А то бывает такое, если адрес копировать из адресной строки браузера:
ping http://google .com
Т.е. просто параметры фиксятся и передаются дальше в настоящий ping.exe
А сейчас добавил путь к папке с этим wrapper-ом ping.exe в PATH. Запускаю - что за ерунда.
О, заглянул себе в Chrome extentions, вижу - наконец, появилось “This extension violates the Chrome Web Store policy” напротив одного отключенного мной плагина погоды.
Я даже когда-то зарепортил в Google - эта зараза сливала траффик (запросы в Google) к себе на сервера. Случайно заметил, когда она “запнулась” в момент отсутствия интернета.
Надо, конечно, поменьше лишних плагинов стараться добавлять. Особенно в свете недавней истории с фейковыми блокировщиками рекламы в магазине Chrome.
Ради эксперимента переписал один свой скрипт с Python на Go (с использованием “горутин”). Смысла особо в этом не было, так как там узкое место - операции с диском, но захотелось немного познать Go.
Замерил время выполнения на тестовых данных. Для начала запустил первый раз для того, чтобы все закешировалось. Потребовалось где-то 2 минуты. Затем уже попеременно запускал то на Python, то скопилированный exe на Go.
Python 3.6 (в один поток) ~ 12 секунд
Задумался про нейросеть, которая сможет предсказывать художественную ценность фотографий. А, оказывается, Гугл уже и тут успел. :)
Еще пишут, что Adobe вообще уже запустили в Lightroom функцию авто-коррекции фото на базе ИИ несколько месяцев назад.
https://tproger.ru/news/google-neural-network-nima/