• Эмодзи

    Чего я не могу понять, так это эмодзи.

    Скажем, человек пишет в объявлении, что продает щенка. И ставит морду щенка. Зачем? Речь о щенке, и после него морда щенка. Масло масляное. То же самое с автомобилем, ноутбуком и прочим: за словом следует иконка того, о чем написано. Зачем? Я уже понял, что речь о щенке или ноутбуке, зачем ставить то же самое?

    Или списки. У нас были цифры, буллиты, тире — но нет, этого мало. Теперь канцелярские кнопки и желтые пальчики, которые указывают, где читать.

    Или молнии: каждый клоун ставит молнию к новому сообщению в телеграме.

    Иногда с эмодзи пытаются в пассивную агрессию: что-то пишут и ставят фейспалм или блюющий рот. Слабоватый прием, честно скажем.

    Программисты тоже деградируют: в консоли все больше эмодзи. В основном этим страдает Node.js. Наверное, нет такого пакета, который бы не вывел единорога, искорки и прочего хлама.

    Иные люди тратят дни и месяцы, чтобы затащить эмодзи туда, где их раньше не было. Даже не знаю, что им сказать. К счастью, эмодзи до сих пор плохо дружат с печатью. В мире InDesign и LaTeX их либо избегают, либо вставляют вручную. Это один их тех бастионов, что еще держатся.

    С тем же непонимание я отношусь к лигатурам: какой смысл в завитушках в коде? У меня есть роскошное издание Дон Кихота, и там лигатуры очень кстати. И то не везде, а только в иллюстрациях и подписях к ним. Почему-то сорок лет назад понимали, что лигатуры отвлекают от чтения. А сегодня это знание утеряно.

    Делают шрифты, где лигатуры охватывают три, четыре и больше символов. Написал TODO и вжух — оно стало неделимым блоком, по-дурацки выделятся на общем фоне. Всякие стрелочки и скобки слипаются в неожиданных местах. Мне хватило минуты, чтобы понять — никогда не поставлю лигатурный шрифт.

    Напоминает проблему современных мессаджеров. Хочешь отправить текстовый смайлик — и он становится желтым колобком. Я не хочу колобок, я хочу текст. Раньше я добавлял ему нос из тире :—) и алгоритм пропускал его. Но технологии не стоят на месте: теперь и этот паттерн превращается в колобка.

    Я не понимаю, почему никто не скажет — вы, программисты, которые затащили все это, молодцы. Умеете, могете. Но это лишнее. Оставьте эмодзи для тупых чатов с одноклассниками в ватсаппе. Оставьте лигатуры для иллюстраций и подарочных изданий. Не тащите это дерьмо во все щели. Не надо, правда.

    Желаю вам больше эмодзи, пальчиков, смайликов, щеночков и лигатур.

  • AWS, история четвертая. Когда null не совсем null

    Все статьи из цикла AWS

    Еще одна история о том, как Амазон может попить крови.

    Напомню особенности нашей архитектуры. Сервисы записывают в S3 сущности разных типов. Их может быть много, например, полтора миллиона такого-то типа. Чтобы выгрести сущности разом, мы используем чудо-оружие Амазона — сервис Athena. Он собирает файлы из бакета и склеивает в один CSV.

    Среди сущностей встречаются выбракованные, и при обходе CSV их нужно игнорировать. Один из признаков брака — вложенное поле attrs, которое равно null. Не проблема: получаю ленивую коллекцию сущностей и накладываю на нее фильтр:

    (->> csv
         (get-lazy-seq ...)
         (filter
          (fn [entity]
            (-> entity :attrs nil?))))
    

    На проде, по различным логам и эксепшенам, вижу, что битые сущности просочились в обработку. Как так?

    А вот как: в оригинальном JSON поле attrs было null, все верно. Но при агрегации в CSV Амазон экранирует null кавычками и получается \"null\". При этом его не волнует, что null находится в середине JSON-строки, которая уже экранирована. Какой-то парсер доходит до null и пишет его с кавычками.

    В результате при чтении JSON получается {"attrs": "null"}, то есть строка с буквами n, u, l, l. Чтобы выкинуть эту запись, я переписал фильтр так:

    (or (-> aggregate :attrs nil?)
        (-> aggregate :attrs (= "null")))
    

    Спрашивается, зачем я оставил первый вариант с чистым nil? Потому что, если однажды мы перейдем на другое хранилище, поле опять станет null вместо "null", и фикс придется откатывать. А так оба случая покрыты: и нормальный, и кривой.

    Разумеется, прикол с null нигде не описан, в Гугле ничего нет. Счастливой отладки, уважаемые коллеги!

    Вот так я потерял еще один день. Каждый раз, распутав новый квест от Амазона, откидываюсь в кресле и тихо матерюсь. А затем иду дальше.

  • Весенняя чистка

    Несколько лет назад я удалился из всех соцсетей — всех без исключения. Ни разу не пожалел: было лишь два раза, когда нужно было догнать человека в условном ВК. В таких случаях я пишу с телефона жены, прошу почту и дальше общаюсь по почте. Если у человека нет почты, а только ВК, то скорее всего, нас ничего не связывает.

    То же самое делаю с Телеграмом: выхожу из всех каналов и чатов. Покинул кложурный чатик, джавный, LaTeX, местное айти-комьюнити, в создании которого участвовал, и многое другое.

    Остались: человек не про айти, человек про айти и канал банка. Из последнего тоже думаю выйти: важной информации мало, сплошные вебинары и графомания а-ля “открываем кофейню”. Важную информацию так или иначе дублируют в приложении.

    Спрашивается, зачем выходить? Нельзя что ли спрятать каналы в архив? Я и сам не знаю: просто хочется сократить информационный шум. Заметил, что все эти чаты и каналы приносят мало пользы, но потребляют внимание. Они развивают потребность без конца открывать телефон и проверять, что новенького. На это легко подсесть, а отучиться сложно.

    Мне возражают: да, информации много, но как тогда находить что-то новое? Ответ прост: случайно. Просто раз в две недели просматривать популярные ресурсы, и если там было что-то стоящее, скорее всего оно будет на главной. А если нет — что ж, не повезло, вы об этом не узнаете.

    Не вижу повода расстраиваться. В мире полно хороших статей и видео, но мы о них не знаем. На условном Хабрахабре примерно одна из ста публикаций полезна, но ради нее нужно пролистать 99 других, полных рекламы, написанных копирайтерами за 100 рублей, или вообще сделанных Гугло-переводчиком. У меня такого желания нет.

    Наконец, на любой канал можно подписаться опять и даже прочесть все, что вы пропустили. Но пока что сожаления нет, и надеюсь, не будет и в будущем.

  • В консоле

    Забавляет, когда пишут “посмотри в консоле”. Получается, что консоль — существительное мужского рода? В пенале, в профиле, в консоле.

    Часто ошибаются с постелью. Я еще в постеле. Опоздал на звонок, потому что в постеле. Опять мужской род.

    Из комментариев: я живу в Рязане. А я в Казане! А я на Кубане!

    Самые невезучие слова — это исключения “бреет” и “стелет”. У рэперов есть выражение “стелить”, то есть удачно складывать рифмы. В комментариях на Ютубе частенько встречается: классно стелишь, бро.

    Интересно, есть ли хоть один рэпер, который пишет “стелешь” правильно? Сомневаюсь.

  • PG2 release 0.1.11: HugSQL support

    The latest 0.1.11 release of PG2 introduces HugSQL support.

    The pg2-hugsql package brings integration with the HugSQL library. It creates functions out from SQL files like HugSQL does but these functions use the PG2 client instead of JDBC. Under the hood, there is a special database adapter as well as a slight override of protocols to make inner HugSQL stuff compatible with PG2.

    Since the package already depends on core HugSQL functionality, there is no need to add the latter to dependencies: having pg2-hugsql by itself will be enough (see Installation).

    Basic Usage

    Let’s go through a short demo. Imagine we have a demo.sql file with the following queries:

    -- :name create-demo-table :!
    create table :i:table (id serial primary key, title text not null);
    
    -- :name insert-into-table :! :n
    insert into :i:table (title) values (:title);
    
    -- :name insert-into-table-returning :<!
    insert into :i:table (title) values (:title) returning *;
    
    -- :name select-from-table :? :*
    select * from :i:table order by id;
    
    -- :name get-by-id :? :1
    select * from :i:table where id = :id limit 1;
    
    -- :name get-by-ids :? :*
    select * from :i:table where id in (:v*:ids) order by id;
    
    -- :name insert-rows :<!
    insert into :i:table (id, title) values :t*:rows returning *;
    
    -- :name update-title-by-id :<!
    update :i:table set title = :title where id = :id returning *;
    
    -- :name delete-from-tablee :n
    delete from :i:table;
    

    Prepare a namespace with all the imports:

    (ns pg.demo
      (:require
       [clojure.java.io :as io]
       [pg.hugsql :as hug]
       [pg.core :as pg]))
    

    To inject functions from the file, pass it into the pg.hugsql/def-db-fns function:

    (hug/def-db-fns (io/file "test/demo.sql"))
    

    It accepts either a string path to a file, a resource, or a File object. Should there were no exceptions, and the file was correct, the current namespace will get new functions declared in the file. Let’s examine them and their metadata:

    create-demo-table
    #function[pg.demo...]
    
    (-> create-demo-table var meta)
    
    {:doc ""
     :command :!
     :result :raw
     :file "test/demo.sql"
     :line 2
     :arglists ([db] [db params] [db params opt])
     :name create-demo-table
     :ns #namespace[pg.demo]}
    

    Each newborn function has at most three bodies:

    • [db]
    • [db params]
    • [db params opt],

    where:

    • db is a source of a connection. It might either a Connection object, a plain Clojure config map, or a Pool object.
    • params is a map of HugSQL parameters like {:id 42};
    • opt is a map of pg/execute parameters that affect processing the current query.

    Now that we have functions, let’s call them. Establish a connection first:

    (def config
      {:host "127.0.0.1"
       :port 10140
       :user "test"
       :password "test"
       :dbname "test"})
    
    (def conn
      (jdbc/get-connection config))
    

    Let’s create a table using the create-demo-table function:

    (def TABLE "demo123")
    
    (create-demo-table conn {:table TABLE})
    {:command "CREATE TABLE"}
    

    Insert something into the table:

    (insert-into-table conn {:table TABLE
                             :title "hello"})
    1
    

    The insert-into-table function has the :n flag in the source SQL file. Thus, it returns the number of rows affected by the command. Above, there was a single record inserted.

    Let’s try an expression that inserts something and returns the data:

    (insert-into-table-returning conn
                                 {:table TABLE
                                  :title "test"})
    [{:title "test", :id 2}]
    

    Now that the table is not empty any longer, let’s select from it:

    (select-from-table conn {:table TABLE})
    
    [{:title "hello", :id 1}
     {:title "test", :id 2}]
    

    The get-by-id shortcut fetches a single row by its primary key. It returs nil for a missing key:

    (get-by-id conn {:table TABLE
                     :id 1})
    {:title "hello", :id 1}
    
    (get-by-id conn {:table TABLE
                     :id 123})
    nil
    

    Its bulk version called get-by-ids relies on the in (:v*:ids) HugSQL syntax. It expands into the following SQL vector: ["... where id in ($1, $2, ... )" 1 2 ...]

    -- :name get-by-ids :? :*
    select * from :i:table where id in (:v*:ids) order by id;
    
    (get-by-ids conn {:table TABLE
                      :ids [1 2 3]})
    
    ;; 3 is missing
    [{:title "hello", :id 1}
     {:title "test", :id 2}]
    

    To insert multiple rows at once, use the :t* syntax which is short for “tuple list”. Such a parameter expects a sequence of sequences:

    -- :name insert-rows :<!
    insert into :i:table (id, title) values :t*:rows returning *;
    
    (insert-rows conn {:table TABLE
                       :rows [[10 "test10"]
                              [11 "test11"]
                              [12 "test12"]]})
    
    [{:title "test10", :id 10}
     {:title "test11", :id 11}
     {:title "test12", :id 12}]
    

    Let’s update a single row by its id:

    (update-title-by-id conn {:table TABLE
                              :id 1
                              :title "NEW TITLE"})
    [{:title "NEW TITLE", :id 1}]
    

    Finally, clean up the table:

    (delete-from-table conn {:table TABLE})
    

    Passing the Source of a Connection

    Above, we’ve been passing a Connection object called conn to all functions. But it can be something else as well: a config map or a pool object. Here is an example with a map:

    (insert-rows {:host "..." :port ... :user "..."}
                 {:table TABLE
                  :rows [[10 "test10"]
                         [11 "test11"]
                         [12 "test12"]]})
    

    Pay attention that, when the first argument is a config map, a Connection object is established from it, and then it gets closed afterward before exiting a function. This might break a pipeline if you rely on a state stored in a connection. A temporary table is a good example. Once you close a connection, all the temporary tables created within this connection get wiped. Thus, if you create a temp table in the first function, and select from it using the second function passing a config map, that won’t work: the second function won’t know anything about that table.

    The first argument might be a Pool instsance as well:

    (pool/with-pool [pool config]
      (let [item1 (get-by-id pool {:table TABLE :id 10})
            item2 (get-by-id pool {:table TABLE :id 11})]
        {:item1 item1
         :item2 item2}))
    
    {:item1 {:title "test10", :id 10},
     :item2 {:title "test11", :id 11}}
    

    When the source a pool, each function call borrows a connection from it and returns it back afterwards. But you cannot be sure that both get-by-id calls share the same connection. A parallel thread may interfere and borrow a connection used in the first get-by-id before the second get-by-id call acquires it. As a result, any pipeline that relies on a shared state across two subsequent function calls might break.

    To ensure the functions share the same connection, use either pg/with-connection or pool/with-connection macros:

    (pool/with-pool [pool config]
      (pool/with-connection [conn pool]
        (pg/with-tx [conn]
          (insert-into-table conn {:table TABLE :title "AAA"})
          (insert-into-table conn {:table TABLE :title "BBB"}))))
    

    Above, there is 100% guarantee that both insert-into-table calls share the same conn object borrowed from the pool. It is also wrapped into transaction which produces the following session:

    BEGIN
    insert into demo123 (title) values ($1);
      parameters: $1 = 'AAA'
    insert into demo123 (title) values ($1);
      parameters: $1 = 'BBB'
    COMMIT
    

    Passing Options

    PG2 supports a lot of options when processing a query. To use them, pass a map into the third parameter of any function. Above, we override a function that processes column names. Let it be not the default keyword but clojure.string/upper-case:

    (get-by-id conn
               {:table TABLE :id 1}
               {:fn-key str/upper-case})
    
    {"TITLE" "AAA", "ID" 1}
    

    If you need such keys everywhere, submitting a map into each call might be inconvenient. The def-db-fns function accepts a map of predefined overrides:

    (hug/def-db-fns
      (io/file "test/demo.sql")
      {:fn-key str/upper-case})
    

    Now, all the generated functions return string column names in upper case by default:

    (get-by-id config
               {:table TABLE :id 1})
    
    {"TITLE" "AAA", "ID" 1}
    

    For more details, refer to the official HugSQL documentation.

  • Preview и текст

    Обнаружил, что программа Preview на Маке распознает текст на картинках. Выглядит так. Исходник:

    и процесс копирования:

    Озарение пришло после того, как я привычно выделил текст, думая, что работаю с PDF. И только потом заметил, что это PNG.

    Распознавание работает неплохо, разве что слетают лидирующие пробелы. Но это ничего: достаточно вставить в редактор, выделить и нажать TAB — и все починится.

    Это еще один довод в пользу Preview. Я уже писал об этой программе и повторю — это произведение искусства. Она умеет невероятно много для работы с картинками и PDF. Доступна из коробки, бесплатна.

    Больше всего я ценю ее за скромность. Preview не требует обновлений, не показывает Tip of the day, не открывает попапы “смотри что я могу”. Она одна стоит того, чтобы купить Мак.

    Возможно, она поможет вам скопировать код из скриншота. Об этом я, кстати, тоже давненько писал: иногда, чтобы месаджер не испортил код, его проще переслать картинкой. А с помощью Preview — восстановить обратно.

    Или скачал ноты для дочки в PDF, а там в подвале реклама. Не беда, накрыл белым прямоугольником — и нет рекламы. Красота же. Где еще так можно?

  • Списки в интерфейсе

    Не понимаю, откуда у дизайнеров такие беды со списками.

    Простое правило: список всегда упорядочен по алфавиту. Всегда и точка. Не по системной айдишке, не по важности, не по фазе Луны, а по алфавиту.

    Если критериев сортировки несколько, список становится таблицей. Клик по колонке переключает сортировку на нее. Но у списка, повторю в третий раз, сортировка одна — по алфавиту. Без учета регистра, конечно.

    На скриншотах видно, что дизайнеры не знают этого правила. Пункт “Turn off…”, хоть и начинается с T, идет первым. Edit message оказался ближе к концу. Refactor — еще до середины, Create gist — предпоследний.

    Дизайнеры объединяют команды в группы, но сами группы идут от балды. В менюшках нет никакой организации. Их можно назвать одним словом — хаос. Каждый раз, когда выпадает такая менюха, как дурак сканируешь с самого начала, вместо того, чтобы прыгнуть на нужное место. O(N) и O(1)? Не слышали.

    То же самое относится к якобы “списку настроек” Эпла. Он выглядит как список, но не ведитесь. Пункты разбиты на группы, между которыми едва заметные разделители. Заголовков у групп нет. Почему Lock Screen, Touch ID и Users в одной группе, а Passwords в другой? Такой вопрос можно задать к любой другой группе.

    Цветовое кодирование сбивает с толку. Сетевые штучки нарисованы синим, а периферия — уши, клава, мышь — белым. Для других групп это правило нарушается: там все цвета. Дурдом.

    Пункт Wifi, хоть и начинается с W, идет первым. Displays — в середине, Battery — ближе к концу.

    Давайте договоримся: любой список идет по алфавиту. Да, пусть Delete окажется наверху, а Translate — внизу. Никто не умрет, и так будет лучше: человек сразу найдет то, что ему нужно.

    Кстати, дурацкие иконки — карандаш, часики, мусорный бак, ножницы, что там еще… — нужно убрать. Никто не ищет Cut по иконке ножниц среди календарей и часов. Дизайнеры-обезьянки качают иконки паками, не понимая, что только мусорят ими.

  • Github IDE

    С тяжелым сердцем смотрю, как Микрософт уродует интерфейс Гитхаба.

    Раньше Гитхаб просто показывал код. Ну, с минимальной подсветкой и ссылками на строки. Все изменилось, как только его купили Микрософты.

    Теперь Гитхаб — что-то вроде онлайн-ИДЕ. Стоит куда-то кликнуть, как появляются попапы, колонки сдвигаются, открываются ссылки для переходов к определению и все остальное. Может быть, кому-то это нужно, но в своем случае не припомню.

    До двойного клика:

    и после него:

    На скриншотах выше — типичный косяк веб-интерфейса. Я всего-то дважды кликнул на функцию read-non-quoted-string, чтобы выделить и скопировать название. В результате дерево каталогов исчезло, код переехал влево, а справа появилась новая выпадашка.

    Разве не уроды? Кто просил двигать колонки и что-то скрывать-открывать? Я просто дважды кликнул.

    Интерфейс словно перешел в режим редактирования, потому что курсор стал вертикальной чертой. При этом текст ввести нельзя — документ по-прежнему read-only. Это просто вынос мозга.

    Обратите внимание, что в результате перестановок курсор оказался в неправильном месте. Я кликнул на середину read-non-quoted-string, а на втором скриншоте он остался на конце сигнатуры за ...in]. При этом выделена правая квадратная скобка. Что происходит?

    Разбудите меня, когда у нас, наконец, будут нормальные дизайнеры.

  • PG2 release 0.1.9: arrays

    The latest 0.1.9 release of PG2 supports Postgres arrays.

    In JDBC, arrays have always been a pain. Every time you’re about to pass an array to the database and read it back, you’ve got to wrap your data in various Java classes, extend protocols, and multimethods. In Postgres, the array type is quite powerful yet underestimated due to poor support of drivers. This is one more reason for running this project: to bring easy access to Postgres arrays.

    PG2 tries its best to provide seamless connection between Clojure vectors and Postgres arrays. When reading an array, you get a Clojure vector. And vice versa: to pass an array object into a query, just submit a vector.

    PG2 supports arrays of any type: not only primitives like numbers and strings but uuid, numeric, timestamp(tz), json(b), and more as well.

    Arrays might have more than one dimension. Nothing prevents you from having a 3D array of integers like cube::int[][][], and it becomes a nested vector when fetched by PG2.

    A technical note: PG2 supports both encoding and decoding of arrays in both text and binary modes.

    Here is a short demo session. Let’s prepare a table with an array of strings:

    (pg/query conn "create table arr_demo_1 (id serial, text_arr text[])")
    

    Insert a simple item:

    (pg/execute conn
                "insert into arr_demo_1 (text_arr) values ($1)"
                {:params [["one" "two" "three"]]})
    

    In arrays, some elements might be NULL:

    (pg/execute conn
                "insert into arr_demo_1 (text_arr) values ($1)"
                {:params [["foo" nil "bar"]]})
    

    Now let’s check what we’ve got so far:

    (pg/query conn "select * from arr_demo_1")
    
    [{:id 1 :text_arr ["one" "two" "three"]}
     {:id 2 :text_arr ["foo" nil "bar"]}]
    

    Postgres supports plenty of operators for arrays. Say, the && one checks if there is at least one common element on both sides. Here is how we find those records that have either “tree”, “four”, or “five”:

    (pg/execute conn
                "select * from arr_demo_1 where text_arr && $1"
                {:params [["three" "four" "five"]]})
    
    [{:text_arr ["one" "two" "three"], :id 1}]
    

    Another useful operator is @> that checks if the left array contains all elements from the right array:

    (pg/execute conn
                "select * from arr_demo_1 where text_arr @> $1"
                {:params [["foo" "bar"]]})
    
    [{:text_arr ["foo" nil "bar"], :id 2}]
    

    Let’s proceed with numeric two-dimensional arrays. They’re widely used in math, statistics, graphics, and similar areas:

    (pg/query conn "create table arr_demo_2 (id serial, matrix bigint[][])")
    

    Here is how you insert a matrix:

    (pg/execute conn
                "insert into arr_demo_2 (matrix) values ($1)"
                {:params [[[[1 2] [3 4] [5 6]]
                           [[6 5] [4 3] [2 1]]]]})
    
    {:inserted 1}
    

    Pay attention: each number can be NULL but you cannot have NULL for an entire sub-array. This will trigger an error response from Postgres.

    Reading the matrix back:

    (pg/query conn "select * from arr_demo_2")
    
    [{:id 1 :matrix [[[1 2] [3 4] [5 6]]
                     [[6 5] [4 3] [2 1]]]}]
    

    A crazy example: let’s have a three dimension array of timestamps with a time zone. No idea how it can be used but still:

    (pg/query conn "create table arr_demo_3 (id serial, matrix timestamp[][][])")
    
    (def -matrix
      [[[[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]]
       [[[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]]
       [[[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]
        [[(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]
         [(OffsetDateTime/now) (OffsetDateTime/now) (OffsetDateTime/now)]]]])
    
    (pg/execute conn
                "insert into arr_demo_3 (matrix) values ($1)"
                {:params [-matrix]})
    

    Now read it back:

    (pg/query conn "select * from arr_demo_3")
    
    [{:matrix
      [... truncated
       [[[#object[java.time.LocalDateTime 0x5ed6e62b "2024-04-01T18:32:48.272169"]
          #object[java.time.LocalDateTime 0xb9d6851 "2024-04-01T18:32:48.272197"]
          #object[java.time.LocalDateTime 0x6e35ed84 "2024-04-01T18:32:48.272207"]]
         ...
         [#object[java.time.LocalDateTime 0x7319d217 "2024-04-01T18:32:48.272236"]
          #object[java.time.LocalDateTime 0x6153154d "2024-04-01T18:32:48.272241"]
          #object[java.time.LocalDateTime 0x2e4ffd44 "2024-04-01T18:32:48.272247"]]]
        ...
        [[#object[java.time.LocalDateTime 0x32c6e526 "2024-04-01T18:32:48.272405"]
          #object[java.time.LocalDateTime 0x496a5bc6 "2024-04-01T18:32:48.272418"]
          #object[java.time.LocalDateTime 0x283531ee "2024-04-01T18:32:48.272426"]]
         ...
         [#object[java.time.LocalDateTime 0x677b3def "2024-04-01T18:32:48.272459"]
          #object[java.time.LocalDateTime 0x46d5039f "2024-04-01T18:32:48.272467"]
          #object[java.time.LocalDateTime 0x3d0b906 "2024-04-01T18:32:48.272475"]]]]],
      :id 1}]
    

    You can have an array of JSON(b) objects, too:

    (pg/query conn "create table arr_demo_4 (id serial, json_arr jsonb[])")
    

    Inserting an array of three maps:

      (pg/execute conn
                  "insert into arr_demo_4 (json_arr) values ($1)"
                  {:params [[{:foo 1} {:bar 2} {:test [1 2 3]}]]})
    

    Elements might be everything that can be JSON-encoded: numbers, strings, boolean, etc. The only tricky case is a vector. To not break the algorithm that traverses the matrix, wrap a vector element with pg/json-wrap:

    (pg/execute conn
                "insert into arr_demo_4 (json_arr) values ($1)"
                {:params [[42 nil {:some "object"} (pg/json-wrap [1 2 3])]]})
    
    ;; Signals that the [1 2 3] is not a nested array but an element.
    

    Now read it back:

    (pg/query conn "select * from arr_demo_4")
    
    [{:id 1, :json_arr [42 nil {:some "object"} [1 2 3]]}]
    
  • Microsoft Teams

    Худшая программа, с которой мне приходится работать — это Microsoft Teams, и вот почему.

    Teams — это Слак семилетней давности: тормозной и глючный. Если сегодняшний Слак еще более-менее, то после него Тимс — словно сидишь под водой: каждое действие на долю секунды медленней.

    Удивляет, что в Микрософте сделали быстрый редактор VS Code, но не осилили месаджер. По-моему, ребят из Teams надо запереть в комнате с командой VS Code, чтобы те передали опыт. Странно, что никому не приходит это в голову.

    За короткую жизнь Teams сменил несколько приложений. Сначала был Teams Classic. Потом вышел Teams for School and Work. Теперь вышел Teams New. Это говорит о том, что первое приложение сделано настолько плохо, что проще выпустить новое, чем исправлять старое. Этого никто не скрывает: первый Teams был сделан тяп-ляп, чтобы не дать Слаке занять весь рынок.

    Read more →

Страница 13 из 86