Gentoo な Thinkpad X1 がぶっ壊れたので MacBook Pro に乗り換えた
先週まで会社の業務で出張に出ていたのだけど、出張先で PC が壊れてしまった。 使っていた PC は Thinkpad X1 carbon (1st Gen) 、 2012 年のモデルなので相当古い。 どういう状態かというと、バッテリ駆動しない(出張中に突然なった) + スピーカーの認識が悪くてときたま X11 を巻き込んでクラッシュする。
バッテリ駆動しない状態になるとデスクトップと変わらず、ラップトップとして役割を果たさないので単純につらい。 普段からただただ重い荷物を持って通勤しないといけないし、インフラエンジニアとして緊急時には対応しないといけないので仕事にも支障が出る。
というわけで、会社で支給されている MacBookPro 2015 に移行した*1。
しかし、 Thinkpad X1 には Gentoo Linux を入れて利用していたのでそう単純な話ではなく、というところで..。
そう、ここ 3 日くらい MacBook Proを捨ててThinkpad T460sを買ってgentooを入れた - joker1007の日記 のエントリーと逆のことをやってたのです!?
(僕が箱根をノロノロとヒルクライムしている間にこんな面白いことをされてたなんて!)
d.hatena.ne.jp
スペック
使っていた Thinkpad X1 は 2012 年のもので 4 年もの。 スペックを比較するとリッチになったぞ!!
- CPU: Intel Core i5 2.4 Ghz (Ivybridge) -> Intel Core i5 2.7Ghz (Broadwell)
- RAM: 8 GB -> 16 GB
- SSD: 256 GB (SATA) -> 256 GB (PCIe)
- ディスプレイ: 1600x900(14インチ) -> 2560x1440(13インチ)
- キーボード: 英字キーボード -> 日本語キーボード
- バッテリ駆動: 3 時間 -> 10 時間
- 重量: 1.36kg -> 1.58kg
CPU も世代が上がってさくさくで使いやすいし、何よりも解像度が上がってよくなった。 家では AC 電源に繋いだままの X1 が放置されているけれど、 移行のために X1 で作業するとドットが目立ってちょっと悲しくなる。
バッテリ駆動時間についてもともと X1 は 6 時間なのだけど、ヘタりにヘタって 3 時間になってしまっていた。 自分の使い方では問題なかったのでよかったけど、ダメになってしまっては意味がない。 MacBookPro は 10 時間も持つので AC アダプタを会社に置きっぱなしにできるのはちょっと嬉しい*2。 けれども重量が 220g も増えてしまったのはいただけない。 ずっしりとした重さを感じていて、リュックでの通勤には少しつらいけど支給の PC がモデル 2016 になるまでの我慢だと思ってこの際割り切った。
キーボードは支給 PC だと日本語キーボードしか選べないので、仕方なく日本語キーボードを使ってる。 キーマップを英字配列に変更していて、フラストレーションはたまるが時々を除いてそれほど困らない。 Insert キーや PageUp, PageDown がなくなったほうが辛いくらい。
総合的にはなかなかいいものだなあという所感。
ソフトウェア
OS が Gentoo Linux から OSX になったのが変化としてかなり大きい。
とはいうものの自分も昔は Snow Leopard まで使っていたので大丈夫だろうと思っていた。 (なぜ Mac をやめたかというと当時、 Lion へのアップデートが有料になり嫌なったのと Spaces がなくなったと聞いて Linux に逃げた。)
今に至るまでいくつか問題があったけれども、まずはいいところだけ書いてく。
- Xcode のインストールに Apple ID が必要ない!
- Homebrew サイコー!!
- Karabiner のおかげでほとんどのキーバインドを矯正しなくていい!!!
- mission control も悪くない!!!!
初めは Firefox (vimperator) も emacs も一部の X11 アプリも使えるし「いいぞ!」という感じだった。 パスワード管理も keepassx を使っていてそのまま移行できたのでかなりよかった! 会社資産の PC に個人のアカウントは入れると面倒なのでそれは移行していないけれど、必要なアカウントだけ選択して移行するのはちょうどいい。
けれども当然、悪いところやハマったところもあって..。
- Finder のキーバインドがカスタマイズできない。
- X11 で Retina が有効じゃない。
- タイル型ウィンドウマネージャ(xmonad)使いたい。
- ファイルシステムで大文字小文字が区別されない。
- 句読点入力がカスタマイズできない(mozc は設定書けたけど OSX でもできるのか不明)。
- mission control の設定が見れない。
- ebuild の資産が使えない。
- UID が 501。
- docker のバインドマウントの挙動が違う。
- 色々なところで sudo を要求されてなんか嫌だ。
Linux だとファイラは thunar を使い、 gtk-can-change-accels=1
を有効にして自由にショートカットキーをカスタマイズしていた。
見た目を気にして nemo を使っていた時期もあってこっちはソースにパッチを ebuild の中で当てて、ショートカットキーをカスタマイズしてた。
たとえば Shift + Super + H
でホームフォルダに移動や Control + L
で直接パスを入力して移動を指定していたのでそのあたり自由に設定できない Finder はなかなかにつらい。
ハマったのは dotfiles をコピーしたら X11 用の設定までコピーしてしまい Xquartz が起動と停止を繰り返す上にエラーメッセージが出力されずに捕捉するまですごく追いづらかったり、 /etc/shells
に書かないと zsh が使えなかったところ。
調査のときに Xquartz はユーザログイン時に launchd から startx が叩かれていることがわかったとか launchd の設定ファイルの文法とかあまり使う機会がないのに launchd に詳しくなってしまった..。
ハマるのは解決すればいいので仕方ないのだけれど、嬉しくない本当の理由はハマっても実務に活かせないところ。 例えば OSX の launchd や docker for mac でハマっても、実務で扱っているサーバは Linux なので systemd や sysvinit が init だったり、 docker も全然違うので実務には活かすことができない。 Gentoo なら同じ Linux のため手元の PC での作業をサーバにそのまま知識を活かせるし、coreutils のコマンド群を触っていても小さな発見があるので楽しい。 ローリングリリースで新しいパッケージも順次追加されるので、 eix-diff でどのパッケージが更新されたかといった情報を得たり、試すのが楽しみにもなる。
結局
使っていると光沢ディスプレイもテカテカが気になったり、タイプ中にタッチパッドが反応してトラックポイントが欲しくなってきたりハードウェア的にも不満が出てきてしまったので、結局 1 年もしないうちに Thinkpad X1 に戻してしまうんだろうなあと思って今は本当にこれでいいのかどうか試す目的で考えながら使っている。
ISUCON6 にインフラエンジニアとして参加して優勝した!!
ISUCON6 にインフラエンジニアとして参加して優勝してきたので、なにやったかとか感想とか書いてく。 (僕はアプリを触っていない。アプリの話は他の人が書いてくれるはず。)
※ @methane さんが会社ブログに投稿されたので記事を更新
会社で出場してチーム名は「この技術部には問題がある!」、メンバは @methane @mecha_g3 さんと僕。 ちなみに @methane さんと @mecha_g3 さんは兄弟だけど、僕だけ他人です(笑)。
チームメンバ役割
本戦に向けて、会社でチーム練習してたので本戦の役割もできてた。
@methane さんが全体の構成を見てチーム全体をまとめる役割、 @mecha_g3 さんがアプリ、 僕がインフラの役割。@methane さんが戦略をたてて、各自自分で改善できるところは改善してく感じで進めることができた。なので、自分は結局アプリのコードを読まなかったけど、やるべきことはできたのでチーム構成最高だった!!
当日の朝
自分は朝に余裕を持ちたいので、当日は 6 時起床。前日は特になにもせずに寝ることだけに集中してた。
LINE きた 2 年ぶり pic.twitter.com/cXShqDV0OV
— ※遺伝子検査済み (@kizkoh) October 22, 2016
チームでは一番に到着したので、席確保して @methane さん、 @mecha_g3 さんがくるまで twitter 見ながらだらだら過ごす。落ち着きが大事。
競技開始
他のメンバにレギュレーションや構成を見てもらっている間にコードや公開鍵をデプロイしたり、オペレーションに必要なツールやリソースモニタリングに必要なパッケージを流し込んでいったりする。 今回は他のサーバ上からオペレーションできるよう踏台サーバとして Azure 外にサーバを置いていて、アプリ担当のメンバが本戦サーバにログインせずともアプリをデプロイしたりログを収集したりできるスクリプトを整備していた。 さらにその準備をしている片手間で初期状態のベンチをかける。
3500 点くらい。
ここでスタートの準備が整ったので戦略会議をする。
フロントは https で nodejs(react) のアプリケーションが待ち構えていて、バックエンドにアプリ、その後ろに MySQL がある構成だった。
nginx を(ちゃんとした http サーバを立てたくて)使いたいので、フロントを nginx で受けて nodejs とアプリに nginx 分けようという戦略になって、これが最終提出時の構成にもなった。
初期実装は php で動いてて、プロセスに apache がいてこれを切り替えようとして systemctl list-units
するも apache2.service がなくて焦るが、ps
で見ると -DFOREGROUND
で動いていたので、 あぁ docker で動いているんだなと思って docker ps
したら起動中のコンテナ一覧が表示されてホッとした(レギュレーションのスライド読んでなかった)。
起動中のコンテナ一覧には node や MySQL があって、各サービスも docker-compose の docker で動いていた。
これらは Linux ネットワークスタックの処理をいくつか通過するためネットワークパフォーマンスが悪くなるし、何よりも問題が発生したときに追うのが面倒という理由で外だししていくことにした。
@methane さんに nodejs と MySQL のインストールを手伝ってもらいながら、 docker exec
しつつ中身を一通り調査しながら systemd のサービスを作成していった。
すべてのコンテナを潰し、 nginx で 443 を listen するようにして、ベンチかけたらアクセスログで HTTP/2.0
が記録されてたので予想通り!!
9500 点くらい。
ここで 12 時半くらいだったと思う。
/api
へのアクセスはアプリだったのでアプリに飛ばしたり、静的ファイルの配信を nginx で gzip_static
を使って配信するようにしたり、 /api/stream
の proxy_buffering
を off にして 14 時くらい。
16000 点くらい。
たぶん、ここまでアプリのコードは触られていなかったんじゃないかと思う(うろ覚え)。 だいぶ落ち着いてきたのでアクセスログの集計スクリプトを整備していく。
@mecha_g3 さんがデータをオンメモリ化されたり、 @methane さんに img/
の SVG を go で返すようにしてもらったりして、設定変更した nginx のリバプロ先を tcpdump で念のため確認してた。
39000 点くらい。
余裕もできて、16 時になったので複数台に展開したりするための準備を進めていく。
sysctl.conf
や別のインスタンスに MySQL を用意したり、 node を動かす準備をしていく。
17 時になって最終構成。
+ +------------------------------------+-------------------+-------------------+ | | listen 8081 | listen 8081 | isten 8081 | | | | | | +isu01----------+ +isu02+---------+ +isu03+---------+ +isu04+---------+ +isu05+---------+ | | | | | | | | | | | | | | | | +----v--+-+ | | +---------+ | | +----v----+ | | +----v----+ | | +----v----+ | | | nginx | | +----> mysql | | | | nodejs | | | | nodejs | | | | nodejs | | | +----+----+ | | | +---------+ | | +----+----+ | | +----+----+ | | +----+----+ | | | | | | | | | | | | | | | | | +----v----+ | | +---------------+ +---------------+ +---------------+ +---------------+ | | app +----+ | | | | +----^----+ | | | | | | | | | | +---------------+ | | | |listen 8080 | | | +---------------------------------------+-------------------+-------------------+
ここからのスコアはこんな様子。
isu03, isu04, isu05 で nodejs を動かしているんだけど、これを 2 プロセスにするとなぜかスコアが大幅に落ちて 3万点 ぐらいになってしまって、ボトルネックの調査に行き詰まる。 結局、ボトルネックが不明だったので、 1 プロセスに戻した状態で最高記録を叩き出した。 その後、インスタンスの再起動試験をやっていくつかベンチをかけてみたけれど、 8 万点を越えることができなかったのが不完全燃焼。 なぜ、スコアが下がってしまったのか今でも分からない(停止 -> 起動ではなくて、再起動してたんだけど Azure のインスタンスガチャ?)。
蓋を開ければ優勝できてたんだけど、最高点数で表彰されなかったのが悔しかった。
最後にボトルネックになっていたのはネットワークだったんだろうなーと今は思ってる。 けれども、これを早々と見つけていても構成を 17 時の時点で構成を変えるのは難しかっただろうなとも思っていて、早くも来年の課題が見えてきて来年が楽しみになってる。
技術的トピック
直接スコアにコミットしたのは docker を潰すところと nginx の設定をガリガリやったところ。
docker はいつか来るだろうなと思っていたので、割とやることは自明で気持ちよく潰せたので楽しかった。 docker-compose は触ったことがなかったけど(今だと swarm でやることになるのかな?)、 docker-compose がどんな役割かは知っていたので、勘で設定ファイルを systemd 化していくことはできた。
http2 も来るだろうと思っていて let's encrypt の準備をしていた。 ドメインが割り当てられることはやっぱりなかったけれど、 nginx.conf の雛形を放り込んだら http2 をちゃんと喋ってくれたので、よかった。
あとはオペレーションのはなし。
今回はサーバが 5 台用意されていて、 2 年前に出場したときよりも 2 台増えていてオペレーション力が求められた。 けれども、基本的にサーバが何台増えようともできることは同一にしておく必要があって、以下のようにホストやプライベート IP のリストをつくっておいて利用するのが簡単でハマりどころも少なくていい。
ISUIPS="10.6.1.5 10.6.1.6 10.6.1.7 10.6.1.8" for i in ${ISUIPS[@]}; do echo $i; ssh $i 'hostname'; done for i in ${ISUIPS[@]}; do echo $i; rsync -n -avRiK /etc/systemd/system/react.service $i:/; done for i in ${ISUIPS[@]}; do echo $i; rsync -avRiK /etc/systemd/system/react.service $i:/; done echo -n ${ISUIPS[@]} | xargs -d' ' -P${#ISUIPS[@]} -I {} ssh -qt {} 'sudo journalctl -f -u isu-go' echo -n ${ISUIPS[@]} | xargs -d' ' -P${#ISUIPS[@]} -I {} ssh -qt {} 'sudo tail -F /var/log/nginx/access.log'
for i in ${IP のリスト}
みたいな書き方は普段のオペレーションでも使っていて練習ではなくて業務のノウハウ的なもの。
ホスト名の扱いに慣れていれば fabric や pdsh みたいなものを使わなくても ssh や xargs といった標準のツールで十分オペレーションできるし戦える。
こんなのを毎回打つ人として本戦ではインフラエンジニアまたはオペレーションエンジニアが必要なのかなあと思う(ミスるとクリティカルだし)。
感想
初めて出場した ISUCON は ISUCON4 だった。入社 1 年目で、そのときも @methane さんと出場して 5 位。 昨年はアプリ担当で出て go で出場するも、少しスコアを上げただけで予選敗退した。 このときはインフラ担当がいなくて、アプリとインフラを自分だけでやってたので本当つらかった思いがある。
そして、今回。予選はいつもなら各自で戦うんだけど今回は予選からチームで戦って役割を分担した。 予選は nginx.conf の設定をするだけであまり活躍する場はなかったけれど、本戦はインフラエンジニアがかなり活躍できて本当に楽しかった。 一方、途中でオペミスして、ファイルをふっ飛ばしてしまうこともあり @methane さんに ansible をトレースして助けていただいたり、構成の変更を練ってもらったり本当に感謝。
記事だとめっちゃ綺麗にうまくいったようにまとめているけど、実際は準備してた道具がほとんど封印された状態。 mysql の sys スキーマや nginx の webdav, image-filter, mruby, グラフィカルなリソースモニタリングの準備していたけど予想を上回る内容の問題で ISUCON って感じ! HTML5 の SSE や react など聞いたことはあるけど触れたことのない技術が問題として出題されて、どんな技術にもより貪欲でありたいと思わされた。 僕にとって ISUCON は自分自身のベンチマークだと思っていて自分がどれだけ成長できているかを実感できる素晴しい機会なので、ともあれ来年も今後もずっと挑戦していきたい。
最後に運営の皆様、参加者の皆様、会社の皆様、お忙しい中サポート & 応援ありがとうございました。
ISUCON6ありがとうございました!また問題などあらためて公開しますがひとまず運営お疲れ様でしたということで。出題チームへ届くウィッシュリストこちらです!是非ねぎらいを!(後日イベント行いそこで利用いたします) #isucon https://t.co/z2TsrSOTAO pic.twitter.com/qUr61qtfZs
— ISUCON公式 (@isucon_official) October 22, 2016
https://bit.ly/isucon6 からギフトできるようですので是非!!
Hatena Engineer Seminar #6 〜インフラ編〜 @ Tokyo に参加してきました
(最初文で書いてたけど、読みづらかったのでメモに置き換えた〜)
個人的には勉強会に参加したらやっぱり、記事を書くべきだと思ってる。 参加したくても様々な事情で参加できなかった人のためになるし、感想を書くと発表された側、発表を聞いた側のモチベーションにもなると考えてる!
内容と感想
LT も面白かったけど、メモなしで聞く方を重視したので記事で触れるのは通常のトーク 3 つ。
id: wtatsuru さん: はてなのログ運用のこれまでとこれから
- 前提となるシステム構成
Reverse Proxy -> Application Server -> DB - ログの種類
アクセスログ、エラーログ: Reverse Proxy が書き出し
アプリケーションログ: Application Server が書き出し
ほとんどのサービスで同じような構成をとっているのでログの処理も同じ- アクセスログの運用・分析
フォーマットは LTSV
ログの保存は rsyslog でリモートに転送
ローカルから s3 にも保存して二重化していて、しばらく日が経過したら glacier に保存している
SSD 上のサーバにも転送して、 SSD 上のサーバで分析、レスポンスタイム、レイテンシを計算
発展して EMR 上で分析、 EMR はクラスタの初期化が遅いので今は google big query を検証中(embulk を挟む) - アプリケーションログの運用
構造化ログ(json) の出力、すべてのサービスで特定の場所に出力
fluentd で中央の aggregator に出力、集約の精度はベストエフォート、完全に保証しない
他に s3 に保存、mackerel に転送、 elasticache に転送
- アクセスログの運用・分析
- 今後
syslog からの脱却、開発者以外も活用できる仕組み、行動ログ基盤
rsyslog を廃止する課題を挙げられていたのだけれど、弊社では journald を使ったログ転送の仕組みを試行錯誤していて、この課題の解決には journald のログ転送あるいは自作のログ転送ツールを利用されたりするのかなあと思った。 また、行動ログを取りたいという話をされていて、懇親会で話していると行動ログを取るんだったら時系列 DB を利用しないといけないねという話になった。 時系列 DB は http://druid.io/ というものがでてきていて、いい感じ(?)らしい。
id: hagihala さん: はてなのサーバプロビジョニングの話(仮)
- プロビジョニング
chef, AMI の運用について
今回の話は Configuration, Bootstrapping、 Orchestration の話はない
サーバ環境は最近専用サーバ(さくらさん)、他に DC, Amazon VPC
物理サーバのプロビジョニングは物理層はさくらさん、PXEブート、 Xen domU 上の仮想サーバは EC2 と同じ扱い
ツールは chef、 chef 昔、本よんだくらいで全然わからないのでなかなかついていけない
はてな内部でも動きが抽象的だったりして chef の評判はよくないらしい
問題はたくさんある、テストが回せていない、コードを外部に出せていない
AMI は debian のものを元にすべての元になる AMI を作成している、使っている技術は open-vz, packer
あと Chef を使っていて、問題はたくさんあってテストが回せていない、コードを外部に使えないところなど、プロビジョニングツールあるあるみたいな知見が共有されていてよかった。 懇親会で若手インフラのメンバと話していたのだけれど、プロビジョニングツールを使ってセットアップの設定を書いていると、テストがそれと被るようになってテストを書くモチベーションが下がるというものあるあるらしい。
プロビジョニングするには何か理由があってされているはずなので、プロビジョニングを意識するに至った理由やツールを選択された理由があれば聞きたかった。 最近、実戦的に Ansible を使って一部プロビジョニングをしているのだけれど、仕事で Ansible を導入したのには下記に書くような理由があって、 Chef を導入された理由があるようなら知りたかったなあと思うなど。
- Ansible を採用した理由
id: hagihala さん: MySQL運用とらぶるすとーり〜3
- テーブル行数制限のはなし
The table 'relword' is full のエラーログ
不要なデータを削除して延命
DB は Mysql-4.0.25(?) (Senna, MyISAM)
--with-big-tables が configure に見当たらない
テーブルの最大行数制限に引っかかる
MySQL 4.0 -> 5.1 へのアップデート
はまりどころ共有(Timestamp とか)
4.0 -> 5.0 -> 5.1 のレプリケーション
参照系のみ 5.1 をみるようにして互換を参照 - binlog 破損から救いを求めた話
Master の Disk full
古い binlog を削除するとレプリケーションエラーが発生
mysqlbinlog コマンドで binlog を確認しようとすると binlog が開けない
各 slave の binlog のポジションが同じ
master の binlog が壊れて、壊れた binlog を読もうとして失敗していた
binlog のバイナリを hexdump で読む..バイナリを見ても壊れている
backup のバイナリログポジションを壊れているポジションを飛ばして修正
バイナリログは追記形式なので途中で壊れたとしても後続は壊れない
普段、 RDS しか運用していなくてレプリケーション遅延やログバッファサイズやその他パラメタのパフォーマンスチューニングしか MySQL を調査したことがなかったのでこの手の話は新鮮でとても面白く聞けた。
イベントを開催してくださった皆様、発表者の皆様、ありがとうございました!!