Slony-I (slon)が起動しなくなることがある。ログには、
2012-05-16 14:08:46.60711 FATAL localListenThread: "select "_slony1".cleanupNodelock(); insert into "_slony1".sl_nodelock values ( 1, 0, "pg_catalog".pg_backend_pid()); " - ERROR: duplicate key value violates unique constraint "sl_nodelock-pkey"
こうなった時の復旧方法は、以前のエントリを参照。
以前から年に 1 回くらい起こっていて、サーバー再起動で復旧した後はパッタリ起こらなくなるため、そのうち(Slony-I 側で)直るだろうと気楽に考えていた。しかしいくら待っても一向に直る気配がなく、もういい加減に我慢ならなくなったので、ようやく重い腰を上げて調べることにした。
結果から先に言うと、Apache httpd, PostgreSQL での already running 現象と原因は同じ。これらの詳細については以前のエントリを参照。
- piyolian: Apache: httpd (pid ####) already running
- piyolian: PostgreSQL: lock file "postmaster.pid" already exists
Slony-I は、ファイルではなくデータベース(sl_nodelock テーブル)に PID を保存する。そして、slon 起動時にその cleanup 処理を行っている。ソースコードでは次の部分。(Slony-I 2.0.7 以降は使ってないので知らない)
slony1-2.0.6/src/backend/slony1_funcs.sql:
create or replace function @NAMESPACE@.cleanupNodelock ()
returns int4
as $$
declare
v_row record;
begin
for v_row in select nl_nodeid, nl_conncnt, nl_backendpid
from @NAMESPACE@.sl_nodelock
for update
loop
if @NAMESPACE@.killBackend(v_row.nl_backendpid, 'NULL') < 0 then
raise notice 'Slony-I: cleanup stale sl_nodelock entry for pid=%',
v_row.nl_backendpid;
delete from @NAMESPACE@.sl_nodelock where
nl_nodeid = v_row.nl_nodeid and
nl_conncnt = v_row.nl_conncnt;
end if;
end loop;
return 0;
end;
$$ language plpgsql;
killBackend(v_row.nl_backendpid, 'NULL') の結果が負になれば、行が delete される。killBackend の実装は C で書かれていて、
slony1-2.0.6/src/backend/slony1_funcs.c:
Datum
_Slony_I_killBackend(PG_FUNCTION_ARGS)
{
int32 pid;
int32 signo;
text *signame;
if (!superuser())
elog(ERROR, "Slony-I: insufficient privilege for killBackend");
pid = PG_GETARG_INT32(0);
signame = PG_GETARG_TEXT_P(1);
if (VARSIZE(signame) == VARHDRSZ + 4 &&
memcmp(VARDATA(signame), "NULL", 0) == 0)
{
signo = 0;
}
else if (VARSIZE(signame) == VARHDRSZ + 4 &&
memcmp(VARDATA(signame), "TERM", 0) == 0)
{
signo = SIGTERM;
}
else
{
signo = 0;
elog(ERROR, "Slony-I: unsupported signal");
}
if (kill(pid, signo) < 0)
PG_RETURN_INT32(-1);
PG_RETURN_INT32(0);
}
第 2 引数が "NULL" だと kill -0 が実行される。よってこの関数の返値は、プロセスが存在すれば 0、存在しなければ -1 となる。そのプロセスが slon であるかは関係ない。その結果、プロセスが存在すると sl_nodelock に行が残り、その後 slon が自身の PID を insert する際に duplicate error が発生することになる。
これは Apache httpd と同じロジックだ。しかし、Slony-I は httpd よりも 重大な問題 を抱えている。
- slon は、例え正常終了であっても、終了時にロックを削除しない。
- ロックはデータベース内にあるため、サーバー再起動では決して削除されない。
この合わせ技はかなり凶悪だ。想像してみよう。サーバーを再起動したとする。slon は正常終了するがロックは残ったままだ。次回 slon 起動時、ロックに残っている PID を持つプロセスが 存在しなければ slon は起動する。
怖すぎる。いくらサーバー起動時のプロセス起動順は滅多に変わらないと言っても、これでは「起動する方が運が良い」と言っていい。今まで知らずに slon を普通に起動していたかと思うと、背筋が寒くなる。
まさか Slony-I がこんなお粗末な二重起動チェックを行っているとは思わなかった。信じてたのに。せめてエラーログがもっと分かり易ければ早くに気付けたが、duplicate error でそれに気付けというのは難度が高過ぎだろう。
ということで、やはり起動スクリプトでロックを削除することになる。ロックの削除は、例えばこんな感じ。
DBHOST=localhost
DBUSER=postgres
DBNAME=testdb
CLUSTER=slony1
cleanup_local_nodelock() {
echo 'cleanup sl_nodelock entry for local node'
psql -h $DBHOST -U $DBUSER -d $DBNAME <<EOF
DELETE FROM _$CLUSTER.sl_nodelock
WHERE nl_nodeid = (SELECT _$CLUSTER.getLocalNodeId('_$CLUSTER'))
AND nl_conncnt = 0;
EOF
}
当然、ロックを削除する前には自力で二重起動をチェックする必要がある。この辺は起動スクリプトの内容にも依存するため、各自で頑張って実装して欲しい。私の知る限り Slony-I には 2 つの起動スクリプトが同梱(redhat/slony1.init, tools/start_slon.sh)されているし、起動スクリプトを自作していることも多いだろう。私の場合は、例によって runit なので(略)。
さて、今回の一連(Apache httpd, PostgreSQL, Slony-I)から得られた教訓は、
標準の二重起動チェックを信用するな。
PID ファイルを使って二重起動チェックを行うものは多いが、もし重要なサービスがあるなら、存在するプロセスの PID で PID ファイルを偽造してみて、サービスが起動するかどうか確認してみることをお勧めする。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。