Develop with pleasure!

福岡でCloudとかBlockchainとか。

安全な0-confirmation決済のためのプレコンセンサス「Ansible」

Satoshi's vision conferenceでテラバイトブロックについて発表していたJoannes Vermorelが最近発表したペーパー↓

http://media.lokad.com/bitcoin/ansible-2018-05-05.pdf

BCHを決済手段として利用する場合に(BTCもしかり)ネックになるのが決済のスピードで、通常ペイメントのサービスを提供している会社はトランザクションがブロックに入るのを待つことなく0-confirmationで決済を受け入れていることが多い。もちろん高額なものの場合はその限りではないけど、もしそれで二重使用された場合は決済サービス側がそこを負担するんだろう。

カジュアルに決済に利用するためにも、ブロックにトランザクションが格納されるまで待つというのは避けたいということで、0-confirmationトランザクションの受け入れを安全にするための研究が最近活発になってきており、↑で提案されているAnsibleもその提案の1つ。

Bitcoinのセキュリティモデル

Bitcoinのコンセンサスでは、平均10分で作成されるブロックにトランザクションが入れられることで決済事実がブロックチェーンに記録される。当然チェーンの一時的な分岐が考えられるので、ブロックに入ったからといってそれは確定的な事実ではなく、後続のブロックが続くほど、その事実は確率的に確定される。

これはあくまでブロックに入ったトランザクションについてであって、ブロックに入る前のトランザクションについて制御するコンセンサスは存在しない。コンセンサスによって0-confirmationトランザクションは保護されないので、ブロックに入るまでの間のトランザクションの制御をするプレコンセンサスを導入しようという話を最近よく聞く。

Bitcoin-NGなんかはキーブロックとマイクロブロックに分けて、10分に一度生成されるブロックでマイクロブロックを生成できる公開鍵を選択し、その後10分間、その公開鍵を使ってトランザクションが含まれるマイクロブロックをより短い間隔で沢山つくることで、より短い決済間隔で決済をできるようにしようと提案していたり、その他の提案もこういったBitcoinのコンセンサスの変更を含むのが多いけど、Ansibleは既存のBitcoinのコンセンサスを維持しつつ0-confirmationトランザクションの安全性を確保しようという提案。

タイムスタンプオーソリティとしてのAnsible

トランザクションの二重使用というのは同じインプットを持つ2つのトランザクションを作り、決済用にその1つを使い、マイナーに別の1つをブロックに入れてもらうことで、決済に使用したトランザクションを無効化してしまおうというもの。トランザクションがブロックに入るまでの間を狙った攻撃になる。

二重使用はブロックに入るまで、どちらのトランザクションが先に出来たものか・有効なものなのか判定する術がないので起きる問題だ。つまりどちらのトランザクションが先に出来たのか識別することができれば解決する問題でもある。

Ansibleでは、それを識別するためにタイムスタンプオーソリティの導入を提案している。

中央集権型のタイムスタンプオーソリティ

プレコンセンサスのシグナルを構築するのに簡単な方法が中央集権型のタイムスタンプオーソリティの導入になる。中央のオーソリティはBitcoinネットワークを関しして、各トランザクション毎に一意の高精度なタイムスタンプを発行する。このタイムスタンプには

このオーソリティにアクセスできるマイナーはトランザクションを全てオーバーレイに送るか、対応するタイムスタンプを取得するかする。

こうやって集めたタイムスタンプ付きのトランザクションで、競合するトランザクション(二重使用のトランザクション)が見つかった場合、タイムスタンプの早いトランザクションを正しいトランザクションとして採用し、そのトランザクションをピアに伝播する。

マイナーがオーソリティにアクセスするコストが、マイニングの収益と比較して十分低ければ、マイナーがオーソリティを採用するのは合理的な選択肢になる。

とは言ってもみんな、こういう中央集権的な仕組みを導入するのは抵抗ありますよねということで↓

分散型のタイムスタンプオーソリティ(Ansible)

↑のような中央集権的なオーソリティの導入は単一障害点の導入にもつながるため、P2P型タイムスタンプオーソリティ「Ansible」を提案している。

Ansibleの実体は既存のCompact Blockのようにネットワーク・プロトコルでサポートされるメッセージの一部とされている。

Ansibleは1人のマスターと複数の参加者で構成され、マイナーがブロックにAnsibleメンバーの公開鍵を入れ、そのブロックが10ブロックと60秒経過すると、そのメンバーが有効になり、以下のルールで運用される。

  • Ansibleが有効なノードは、(失効していない)有効なメンバーによって署名された全てのメッセージを中継する。
  • いずれの時点においても、Ansibleのメンバーは、他のメンバーに対して失効の投票を行うことができる。他のメッセージとは異なり、失効のメッセージは常に伝播されるが、メンバー毎に100の異なるメッセージの制限がある。失効は10〜110ブロックまでのブロックで発見されるメンバーの数による多数決で決定される。
  • 失効していないメンバーの内、最も古参が自動的にAnsibleのマスターに選出される。
  • AnsibleのマスターはAnsibleの他の有効なメンバーの利益のため、タイムスタンプオーソリティとして行動する。マスターが真面目にユニークなタイムスタンプの提供に失敗した場合、メンバーは直ちに失効の投票を始める。
  • メンバーはマスターによって発行されたタイムスタンプをP2Pで伝播する。

マスターによって発行されたタイムスタンプは、Ansibleによって発行されたプレコンセンサスシグナルを表す。Ansibleの一員である正直なマイナーには、Ansibleのプレコンセンサスシグナルに照らして二重使用攻撃を解決することが期待されている。

まとめ&所感

↑なようにAnsibleはタイムスタンプオーソリティによるシグナルをプレコンセンサスとして導入することで、トランザクションの順序を決定しようというアプローチを採っている。他にもオーソリティの地理的な分散や、Bitcoinアドレスにジオロケーションを埋め込む提案などもされているので詳細はホワイトペーパーを要チェック。

まだ細かいプロトコルまでは定義されておらず、ペーパー自体もフィードバックを求めるためのものみたい。個人的には、

  • 実際にオーソリティがタイムスタンプを返さなかったり、失効の投票が行われている間のトランザクションの取扱はどうなるのか?
  • Bitcoinのコンセンサスは変更しないということなので、マイナーの一部でもこれに従わない場合、二重使用のリスクは依然として残るのでは?
  • またマイナーがこれに従うインセンティブは?

といった点が気になる。

BIP-70のPayment Protocolの検証環境を作ってみた

Bitcoinを決済に利用する際に、決済先との間の中間者攻撃やマルウェアなどに感染した環境で、本当の支払先でないアドレスに送金するといったことが起きないよう、送金先をPKIを使って検証する仕組みがBIP-70で定義されているPayment Protocol↓

techmedia-think.hatenablog.com

bitcoinrbでもこれらのプロトコルに対応しようと思って、動作検証する環境をまず作ってみた。

BIP-70自体にはTest Vectorは掲載されていないけど、BIP-70の著者の1人であるGavin AndresenがPayment Protocolのデモ環境を公開してたのでそれを使ってみる↓

github.com

(以前はbitcoincore.orgのサイトでこれがホストされてたっぽいけど、今はなくなってる。)

Payment Requestのテスト環境のセットアップ

↑では以下のツールが提供されてる。

  • PaymentRequestの作成・検証のためのC++コマンドラインツール
  • PaymentRequeststの作成・検証のためのPHPのコードとデモサイト
  • テスト用の証明書作成シェル

まず以下のライブラリをインストールしておく。

テスト用の証明書とルート認証局の作成

BIP-70はPKIを利用して決済先の情報を検証するので、テスト用にルート認証局と、その認証局が発行した決済先用の証明書を作成する。

↑のリポジトリca_in_a_boxにテスト用の認証局と証明書を作成するスクリプトが用意されてるのでそれを実行するだけ。

$ cd ca_in_a_box
$ ./sh create_ca.sh
CA: Creating self-signed root certificate authority (CA) certificate:
Generating a 2048 bit RSA private key
.....+++
............+++
writing new private key to './private/cakey.pem'
-----
MERCHANT: Creating merchant private key and certificate signing request (CSR):
..++++++
...................++++++
CA: Issuing new merchant certificate
Using configuration from openssl.cnf
Check that the request matches the signature
Signature ok
The Subject's Distinguished Name is as follows
commonName            :ASN.1 12:'testmerchant.org'
organizationName      :ASN.1 12:'Payment Request Test Merchant'
Certificate is to be certified until Mar 11 05:27:23 2028 GMT (3650 days)

Write out database with 1 new entries
Data Base Updated
Done.
 Root CA certificate is certs/cacert.pem
 Merchant certificate is certs/demomerchant.pem , private (signing) key is private/demomerchantkey.pem

スクリプトの中身はopensslコマンドを使って、認証局とマーチャントの証明書のファイルを作ってるだけで、実行が完了するとcertsディレクトリができ、そこに認証局とマーチャントの証明書が作成され、privateディレクトリに認証局とマーチャントの秘密鍵が格納される。

  • certs/cacert.pem
    ルート認証局の証明書
  • certs/demomerchant.pem
    マーチャントの証明書
  • private/demomerchantkey.pem
    マーチャントの証明書の秘密鍵

ちなみに生成されたマーチャントの証明書が

X509v3 extensions:
            X509v3 Basic Constraints: 
                CA:TRUE

とCAの証明書になってたりする。同じopenssl.cnf使ってるからそのオプションのせいっぽい。なのでこれで証明書作ららなくても自前で認証局とマーチャントの証明書作る方がいいかも。

PHPのデモサイト

依存ライブラリの関係でPHP5系でしか動作しないみたいなので、PHP7系でなくPHP5系の環境が必要。今回はphpenv使ってPHP5.6.34を入れる。何気にPHPの環境用意するのが一番面倒だった。。

最初にphpenvをインストール↓

参考:phpenvで最新版のPHPをインストールしてWebサイトで使用する - Qiita

PHP 5.6.34のインストール時にpearも欲しかったので以下のように--with-pearを指定する。

$ CONFIGURE_OPTS="--with-pear" phpenv install 5.6.34

続いて、PHPでProtocol Bufferを扱うのに必要なProtobuf-PHPをインストールする。

$ pear channel-discover pear.pollinimini.net
$ pear install drslump/Protobuf-beta

続いてmemcacheモジュールをインストールするんだけど、pearpeclでは見つからなかったのでソースをダウンロードしてきてビルドした。

$ wget https://pecl.php.net/get/memcache-3.0.8.tgz
$ tar xvfz memcache-3.0.8.tgz
$ cd memcache-3.0.8
$ CFLAGS="-fgnu89-inline" ./configure
$ make
$ make install

./configureを実行する際にCFLAGS="-fgnu89-inline" しておかないと後でエラー吐く。

以上でセットアップは環境。

後は簡単で、paymentrequestをcloneしてdemo_websiteをrootに指定して実行し、

$ php -S localhost:8000 -t <clonしてきたパス>/paymentrequest/php/demo_website

http://localhost:8000/createpaymentrequest.php

にアクセスすると↓のような画面が表示される。

f:id:techmedia-think:20180312135529p:plain

証明書とその秘密鍵のロケーションを変更

PaymentRequestsを作成する際に、PKIの署名データが付与されるんだけど、この署名を生成するのに証明書を作成する際に使用した秘密鍵が必要になる。

証明書と鍵のロケーションは/home/gavin/.certs/以下のハードコードされてるので、

https://github.com/gavinandresen/paymentrequest/blob/master/php/demo_website/createpaymentrequest.php#L190

https://github.com/gavinandresen/paymentrequest/blob/master/php/demo_website/createpaymentrequest.php#L205

自分の環境に合わせて書き換える必要がある。

// 証明書
$leafCert = file_get_contents("使用するマーチャント証明書ファイルのパス");
...
// 鍵
$priv_key = file_get_contents("使用するマーチャント秘密鍵ファイルのパス");

書き換えたら、↑のURLにアクセスして、最低限アドレスと量(Amount)を入力して、「Create Payment Request」を押せばPayment Requestのメッセージがダウンロードできる。

データを確認すると、Payment Requestのsignatureには↑のマーチャントの秘密鍵を使って生成した署名データがセットされている。

Payment Requestのpki_dataには、仕様的には、まず必須なのが最初に↑のマーチャントの証明書がセットされ、それ以降は任意でその証明書からルート証明書までの証明書のチェーンが一式セットされるようになってる。PHPのデモコードではX.509証明書の拡張プロファイルのauthorityInfoAccessに記載されているURIから親の証明書を辿る仕組みになってるんだけど、↑で生成した証明書にはこのプロファイルが入ってないので、親が辿れず↑のメッセージにはマーチャントの証明書しか入ってない。

なので、PHPのコードを書き換えて↑の認証局の証明書まで含めるようにするか、↑のテスト用の証明書をメッセージを受け取ったクライアント側のOSに仕込んで証明書チェーンを検証するかする必要がある。まぁ実際にルート証明書が入っていないケースも考慮すべきなので、後者の方法を取る方がいいかな。

と、一応動く検証環境はできたけど、環境周りや設定変更とか必要なので、検証終わったらSinatraで簡単なAPIとか作りたいなー。

マルチパーティ間のスクリプトのプライバシーを向上させるTaprootというコンセプト

先日、bitcoin-dev MLにGregory MaxwellがポストしていたTaprootというコンセプトが興味深かったので見てみる↓

[bitcoin-dev] Taproot: Privacy preserving switchable scripting

まだBitcoinにはデプロイされていないが、MASTというscriptPubkeyをマークル化するアプローチが提案されている↓

techmedia-think.hatenablog.com

techmedia-think.hatenablog.com

複数の条件でコインをアンロックできるscriptPubkeyがある場合(例えば、2-of-2の署名があればアンロックできる or 24時間経過したら1人の署名でアンロックできるなど)、通常のP2SHでは元の条件を全て含むredeem scriptを公開してどちらかの条件でアンロックする必要があるが、↑のMASTを利用すると実際にアンロックに使用する条件のみを公開するだけで良い。使用しない条件を公開する必要がないためプライバシーが少し向上し、ブロックチェーン上に記録される容量も削減できる。

ただ、MASTを使用してアンロックしていること自体は分かるので、公開されるのはアンロックに使用した条件のみだが、他に何らかの条件が存在したことは知られてしまう。

これを改善するのに、複数の条件が無い場合にもダミーのハッシュなんかを用意してMASTを構成するスクリプトを作り、別の条件があるかのように偽装するという方法も考えられる。ただこの場合ネックになるのが、複数の条件を必要としないケースに比べて32バイトほど余計にトランザクションスペースを消費する点だ。この余分な32バイトを使ってもプライバシーを考慮すべきかというトレードオフが発生する。

マルチシグ or 他の条件がアンロック条件となるスクリプトに対して、このトレードオフを発生することなくプライバシーの向上と容量のセーブの両方を実現するのがTaprootのコンセプトだ。

アリス(公開鍵A)とボブ(公開鍵B)がいて、以下のいずれかの条件でアンロック可能なコインがあるとする。

  • AとBに対応するアリスとボブそれぞれの秘密鍵による署名でアンロック可能
  • CSVでタイムロックされた時間を経過したらボブの秘密鍵による署名でアンロック可能

普通にscriptPubkeyを書くと以下のようなスクリプトになる。

OP_IF
  2 <A> <B> 2 OP_CHECKMULTISIG
OP_ELSE
  <ロック時間> OP_CSV OP_DROP <B> OP_CHECKSIG
OP_END
TaprootのscriptPubkey

Taprootのコンセプトでは、これを以下のようにしてある1つの公開鍵への支払いにする。
※ 前提としてSchnorrの集約特性を必要とする。

  1. まずAとBのマルチシグの部分について、AとBの公開鍵を集約した集約鍵C = A + Bを作る。(rogue key攻撃の懸念がある場合はMuSig*1を利用して集約鍵を作る。)
  2. タイムロックスクリプトS = <timeout> OP_CSV OP_DROP B OP_CHECKSIGVERIFYとする。
  3. CSから楕円曲線上の点P = C + H(C || S)Gを計算する。
    H()ハッシュ関数で、G楕円曲線のジェネレータ)
  4. scriptPubkey [Taprootのバージョン] [楕円曲線上の点P]宛てに支払いをする。
    (segwitのscriptPubkey [witness version] [witness program]みたいなイメージだと思う)

このscriptPubkeyにロックされた資金をアンロックする方法は当然2つあり、それぞれ以下のようにアンロックする。

アリスとボブのマルチシグを使ってアンロックする方法

P楕円曲線上の点=公開鍵で、この点はアリスとボブの公開鍵を集約して作った点CとH(C||S)をシークレットとして生成した点を加算した点なので、アリスとボブの秘密鍵にH(C||S)を加算して、Pに対して有効な署名を作成することができる。

タイムロックの条件を使ってアンロックする方法

マルチシグ以外でアンロックできる条件がもう1つのタイムロックされている条件で、この条件を使用するのに以下のような新しいコンセンサスルールを導入する。

Pを構成するアリスとボブの集約鍵Cともう1つの条件のスクリプトSを提供し、C + H(C||S) = Pが成立する場合、Sスクリプトのタイムロックの条件をクリアし、ボブの秘密鍵による署名があればコインをアンロックできるというものだ。

どちらの方法でアンロックするかの判定はwitness stackのアイテムの数で判断するのかな?

まとめ

Taprootでは、所謂マルチシグのアンロック条件とそれ以外のアンロック条件を持つスクリプトを組み合わせて1つの公開鍵にする。マルチシグの場合はマルチシグの参加者の署名があればその公開鍵に対する有効な署名を作ることができアンロックできる。もう1つのスクリプトの条件を使ってアンロックする場合は、マルチシグを構成する際の集約鍵とその元の条件のスクリプトを公開することで、スクリプトの条件を使ったアンロックを可能にする。

↑はアリスとボブのだったけど何人でも動作原理は同じで、Sにも任意のスクリプトをセット可能だ。

最初に説明したようにMASTのプライバシーをさらに向上させるのに、複数の条件がない場合でも条件があるように見せるようMASTを構成すると無駄なデータサイズが発生するが、Taprootの場合はロックに使用するのは公開鍵Pだけあれば良いのでこの問題が解消できる。

条件が課されたコントラクトを含むロックスクリプトを、オーバーヘッドの無い単純な公開鍵として表現するアイディアがおもしろいなー。

Schnorrベースのマルチシグネチャスキーム「MuSig」

先日、Gregory MaxwellとAndrew Poelstra、Yannick SeurinとPieter Wuilleらによって、Schnorr署名を使ったマルチシグスキームのホワイトペーパーが発表された↓

https://eprint.iacr.org/2018/068.pdf

これに関する記事をPeiter WuilleがBlockstreamのブログにポストしていたので↓

blockstream.com

まずは↑読んで理解した範囲でMuSigについて書いてみる↓

既存のマルチシグ

Bitcoinにおけるマルチシグはよくm-of-nのように記載されn個の公開鍵の内m個の公開鍵に対応する秘密鍵で署名された署名データがあればコインのロックを解除できるといったもので、以下のようなscriptPubkeyと、アンロックする際のscriptSigが用いられる。

scriptPubkey

2-of-3のマルチシグのscriptPubkey↓

2 <公開鍵1> <公開鍵2> <公開鍵3> 3 OP_CHECKMULTISIG
scriptSig

↑の2-of-3のscriptPubkeyにロックされたコインを使用する際に必要なscriptSig

0 <公開鍵1の秘密鍵による署名> <公開鍵3の秘密鍵による署名>

トランザクションにはn個分の公開鍵と、m個分の署名データが含まれm-of-nの個数が増えるほどこのデータサイズも増えることになる。

鍵と署名の集約

既存のマルチシグは署名にECDSAを採用しているが、MuSigではこの部分をSchnorr署名をベースにした仕組みでサイズの削減とプライバシーを向上させようとしている。MuSigは鍵の集約をサポートする新しいマルチシグの方式で、マルチシグを構成する複数の公開鍵を1つの鍵に集約することができる。既存のマルチシグのscriptPubkeyは複数の公開鍵への支払いとみなすことができるのに対し、MuSigでは集約された公開鍵への支払いとみなすことができる。署名検証時も集約された鍵があれば良いので、個々の公開鍵の値が何なのか検証者に知られることはなく、サイズの削減とプライバシーの向上が見込める。

マルチシグの仕組みをMuSigにすることで、

  • トランザクションの各インプットに複数セットしていた署名の数を1つに減らせる
  • すべての公開鍵を含むスクリプトを1つの集約された公開鍵に減らせる

といった既存のマルチシグへのメリットが考えられる。

またそれ以上に複数のインプットを持つトランザクションの署名を1つに集約するということも可能になる。前者のマルチシグが複数の署名者が同じメッセージ(sighash)に対して署名するのに対し、後者の場合は各署名者は異なるメッセージ(インプット毎にsighashは異なる)に署名することになる。

具体的にどういう署名方式なのか見てみよう。

表記

  •  {x,x_1,x_2,...}を公開鍵 {X,X_1,X_2,...}に対応する秘密鍵とする(ジェネレータGと合わせ、 {X_i = x_{i}G})。
  • 署名されているメッセージはm
  • H()は暗号学的ハッシュ関数

Schnorr署名

Schnorr署名の式は以下のように定義されている。

  • 署名は {(R, s) = (rG, r + H(X, R, m)x)}。rは署名者が選択したランダムなナンス。
  • 検証は {sG = R + H(X, R, m)X}が成立するか。

構成要素はECDSAよりシンプルだ。

※ 他のサイトのSchnorrの式みると {H(R, m)}でXが含まれてないんだけど、どういう違いから来てるのか? Xがあると(R, s)から公開鍵を復元することもできない気がする。

Schnorrベースのマルチシグ

Schnorrベースのマルチシグの署名と検証は以下のように行う。

  • Xを各署名者が持つ公開鍵=点 {X_i}の合計とする。
  • 各署名者はランダムなナンス {r_i}を選択し、他の署名者と {R_i = r_{i}G}を共有する。
  • Rを点 {R_i}の合計とする。
  • 各署名者は {s_i = r_i + H(X, R, m)x_i}を計算する。
  • 最終的な署名データは(R, s)で、sは {s_i}の値の合計。
  • 検証は {sG = R + H(X, R, m)X}が成立するか確認する。ここでXは個々の公開鍵の合計。

署名 {(R, s)}及び検証式 {sG = R + H(X, R, m)X}が↑のSchnorr署名の式を満たす形でマルチシグを構成しているのが分かる。

各署名者がの秘密鍵とナンスから {s_i}を加算して求めた点と、各署名者の公開鍵と {R_i}を加算して出来た点の検証になってるので、楕円曲線の準同型性を利用した仕組みみたいだなー。

rogue-key攻撃の問題

↑のSchnorrベースのマルチシグで問題になるのがrogue-key攻撃。例えばアリス(公開鍵 {X_A})とボブ(公開鍵 {X_B})がマルチシグを構成する場合、お互いに公開鍵を教える必要がある。例えばアリスが公開鍵を教えた後に、ボブがアリスの公開鍵を使って {X'_B = X_B - X_A}を計算して、 {X_B^{'}}を自分の公開鍵として教えることが考えられる。この場合鍵を集約すると {X_A + X'B = X_A + X_B - X_A = X_B}となり、ボブの公開鍵 {X_B}秘密鍵だけで署名ができてしまう。

この問題を回避する方法の1つは、アリスとボブの公開鍵に加えて、それぞれがその公開鍵に対応する秘密鍵を本当に所有しているという証明を最初にするというもの。ボブは {X'_B}秘密鍵を持っていないので証明できず不正を働けない。ただ必ずそういった証明を事前に行えるという保証をプロトコルレベルで保証するものではないので、こういった攻撃ができない仕組みが求められる。

Bellare-Nevenのマルチシグネチャ方式

rogue-key攻撃に対して安全なのがBellare-Nevenのマルチシグネチャで、以下の手順で署名の作成と検証を行う。

  •  {L = H(X_1,X_2,...)}とする。
  • 各署名者はランダムなナンス {r_i}を選択し、他の署名者と {R_i = r_{i}G}を共有する。
  • Rを {R_i}ポイントの合計とする。
  • 各署名者は {s_i = r_i + H(L, X_i, R, m)x_i}を計算する。
  • 最終的な署名データは(R, s)で、sは {s_i}の値の合計。
  • 検証は {sG = R + H(L, X_1, R, m)X_1 +H(L, X_2, R, m)X_2 + ... }が成立するか確認する。

さらに、各署名者は {R_i}を公開する前に、 {H(R_i)}を公開する事前のコミットメントラウンドを設けるケースもある。

検証式を見れば明らかだが、この方式だと↑の通常のSchnorrの式を満たさない。署名の {s_i}を計算する際に、公開鍵に乗算する {H(L, X_i, R, m)}に各公開鍵が含まれており、 {x_i}に乗算する値が署名毎に異なるため、 {sG = R + H(X, R, m)X}のような集約はできない。確かにrogue-key攻撃を防ぐことはできるが、反面、検証には各公開鍵が必要となり、鍵の集約特性が失われてしまう。

MuSig

rogue-key攻撃に対して安全でありつつ、鍵の集約特性を備えたマルチシグネチャ方式が、今回提案されたMuSigで、以下の手順で署名の作成と検証を行う。

  •  {L = H(X_1,X_2,...)}とする。
  •  {H(L, X_i)X_i}の合計をXとする。
  • 各署名者はランダムなナンス {r_i}を選択し、他の署名者と {R_i = r_{i}G}を共有する。
  • Rを {R_i}ポイントの合計とする。
  • 各署名者は {s_i = r_i + H(X, R, m)H(L, X_i)x_i}を計算する。
  • 最終的な署名データは(R, s)で、sは {s_i}の値の合計。
  • 検証は {sG = R + H(X, R, m)X}が成立するか確認する。

ポイントはSchnorrベースの集約公開鍵Xを、単純な各公開鍵の和でなく、全公開鍵をハッシュした要素に公開鍵を乗算した和にしている点だ。

BNと異なるのは、各署名作成時に署名毎に異なるハッシュ値 {H(L, X_i)}を持つものの、それに対応する点 {H(L, X_i)X_i}を加算してXを作り共有することで、鍵の集約を可能にしている。署名 {(R, s)}及び検証式 {sG = R + H(X, R, m)X}が標準のSchnorrの式と同じになりっており、集約特性があることが分かる。

また各 {s_i}の計算時に署名毎に異なる {H(L, X_i)}秘密鍵 {x_i}に掛けているため、標準的なSchnorrベースのマルチシグに比べてrogue-key攻撃への耐性がある。

というのがMuSigの仕組みみたい。

↑の式だと1つのメッセージへの多重署名なのでマルチシグの置き換えは可能だけど、トランザクションの署名を1つに集約する場合、メッセージはインプット毎に異なるため、 {H(X, R, m)}のmは署名毎に変わるからmを {H(L, X_i, m)}側に移動するのかな?この辺はホワイトペーパー見てみないと分からない。

これがどういう形でBitcoinに適用されるかは、多分またBIPとして出てくるだろう。

軽量クライアント向けのCompact Block Filterを定義したBIP-158

techmedia-think.hatenablog.com

で使用するフィルタの仕様を定義したのがBIP-158↓

https://github.com/bitcoin/bips/blob/master/bip-0158.mediawiki

おおまかな仕組みとしては、

BIP-37では軽量クライアント側が自身に関連する公開鍵ハッシュやOutPointなんかをフルノードとのフィルタにセットしていたが、BIP-157,158では逆にフルノード側がブロック内の全トランザクションの全OutPointscriptPubkey内の全データ要素(公開鍵ハッシュなど)を抽出し、それらをゴロム・ライス符号で圧縮してフィルタを生成している。BIP-37が各クライアント毎にフィルタは異なるのに対し、BIP-157,158ではブロック毎にフィルタの中身が決まり、ブロックがチェーンに追加されたタイミングで一度それを生成し保存しておくだけで良い。

BIP-158で定義されている2つのフィルタの構造についてBIPを見てみよう↓

概要

このBIPはBIP-157の軽量クライアントプロトコルで使われるブロックデータのコンパクトなフィルタの構造について説明する。BIP-37のBloom Filterの代替として提案されたフィルタ構成は、圧縮にゴロム・ライス符号を使用することでフィルタサイズを最小限に抑えるようになっている。このドキュメントでは基本的なウォレットとより高度なスマートコントラクトを持つアプリケーションを可能にする、この構成に基づく2つのフィルタの初期タイプについて定義する。

動機

BIP-157はブロックのコンテンツの決定性フィルタに基づいて軽量クライアントプロトコルを定義する。フィルタは軽量クライアントが消費すると予想される帯域幅を最小限に抑えて、フィルタとブロックをダウンロードするように設計されている。このドキュメントでは、基本および拡張用の2つの初期フィルタタイプを定義し、高度なアプリケーションをサポートし、基本的なウォレットのフィルタサイズを縮小する。

定義

[]byteはバイトベクトルを表す。

[N]byteは長さNの固定のバイト列を表す。

CompactSizeはBitcoinのP2Pプロトコルで使われる符号なし整数のコンパクトなエンコード

Data pushesはBitcoinのスクリプトルールに従ってスタックにプッシュされたバイトベクトル。

Bit streamsは個々のbitの読み書き可能なストリーム。このドキュメントの疑似コードでは以下の関数が使われている。

  • new_bit_stream 新しい書き込み可能なBit streamをインスタンス化する。
  • new_bit_stream(vector) vectorからデータを読み込んで新しいBit streamをインスタンス化する。
  • write_bit(stream, b) ストリームの最後にbit bを追加する。
  • read_bit(stream) ストリームから次の利用可能なbitを読み込む
  • write_bits_big_endian(stream, n, k) 整数nk個の最下位bitをビッグエンディアンの順でストリームの最後に追加する。
  • read_bits_big_endian(stream, k) ストリームから次に利用可能なkbitを読み込み、それらをビッグエンディアン整数の最下位bitとして解釈する。

仕様

Golomb-coded set

各ブロックについて、ブロックに関連する項目のセット(例えば送信先のアドレスや使用されたoutpointなど)を含むコンパクトフィルタが導出される。このようなデータオブジェクトのセットはGolomb-coded set (GCS)と呼ばれる確率構造に圧縮される。この確率構造はセット内のアイテムであれば確率1でマッチし、セット内にないアイテムがマッチする確率はある整数パラメータMに対して1/Mである。エンコーディンは剰余符号のビット長であるPによってもパラメータ化される。定義された各フィルターはPとMの値を指定する。

高レベルなGCSはN個のアイテムのセットから次のように構築される。

  1. すべてのアイテムを0 〜 N * Mの範囲の64 bitの整数にハッシュする。
  2. ハッシュ値を辞書順にソートする。
  3. 各値についてその前の値との差を計算する。
  4. 差を順番に書き込み、ゴロム・ライス符号で圧縮する。

以下のセクションではこの各ステップについて詳しく説明する。

データオブジェクトのハッシュ化

フィルタ構築の最初のステップは、セット内の可変サイズのアイテムを[0, F)の範囲内でハッシュ化する(ここでFはF = N * M)。通常Mは2Pに設定される。しかし両方のパラメータを個別に選択できる場合は、より最適な値を選択することができる。ハッシュの出力に対するメンバーシップクエリを設定すると偽陽性率はMになる。数の桁溢れを避けるため、アイテムの数Nは232未満、Mは232未満でなければならない。

アイテムはまず疑似乱数関数SipHashに渡される。疑似乱数関数SipHashは128-bitの鍵と可変サイズのバイト列を受け取り、均一にランダムな64-bitのアウトプットを生成する。このBIPの実装では、SipHashのパラメータはc = 2d = 4を使用しなければならない。

続いて64-bitのSipHashのアウトプットにFを掛けて、その結果の128-bitの上位64-bitを取ることで望ましい範囲にわたって一様にマッピングされる。このアルゴリズムは高価な除算演算を避けるため、モジュロ演算の削減に替わる高速なアルゴリズム*1。この削減を実装する際は、整数乗算の上位64-bitが切り捨てられないよう注意する必要がある。特定のアーキテクチャと高水準言語では、64-bitの乗算を4つの32-bitの乗算に分解し、その結果を再結合するコードが必要になる場合がある。

hash_to_range(item: []byte, F: uint64, k: [16]byte) -> uint64:
    return (siphash(k, item) * F) >> 64

hashed_set_construct(raw_items: [][]byte, k: [16]byte, M: uint) -> []uint64:
    let N = len(raw_items)
    let F = N * M

    let set_items = []

    for item in raw_items:
        let set_value = hash_to_range(item, F, k)
        set_items.append(set_value)

    return set_items
ゴロム・ライス符号

ハッシュされたセット内のアイテムを直接フィルタに書き込むのではなく、連続するアイテム間の差をソート順で書き込むことでより大きな圧縮効果がある。アイテムは一様に分布しているので、その差は幾何分布に似ていることが示されている*2。ゴロム・ライス符号*3は、幾何学的に分布した値を最適に圧縮する方法だ。

ゴロム・ライスでは、値は2Pを法とする商と剰余に分割され、別々にエンコードされる。商qは単身符号としてエンコードされ、qの文字列1つの後に0が1つ続く。余りrはP-bitのビッグエンディアンで表される。例えば以下はP=2を使った場合のゴロム・ライス符号だ。

n (q, r) c
0 (0, 0) 0 00
1 (0, 1) 0 01
2 (0, 2) 0 10
3 (0, 3) 0 11
4 (1, 0) 10 00
5 (1, 1) 10 01
6 (1, 2) 10 10
7 (1, 3) 10 11
8 (2, 0) 110 00
9 (2, 1) 110 01
golomb_encode(stream, x: uint64, P: uint):
    let q = x >> P

    while q > 0:
        write_bit(stream, 1)
        q--
    write_bit(stream, 0)

    write_bits_big_endian(stream, x, P)

golomb_decode(stream, P: uint) -> uint64:
    let q = 0
    while read_bit(stream) == 1:
        q++

    let r = read_bits_big_endian(stream, P)

    let x = (q << P) + r
    return x
セットの構成

GCSは以下の4つのパラメータから構成される。

  • L: N個の元のアイテムのベクトル
  • P: ゴロム・ライス符号のbitパラメータ
  • M: ターゲット偽陽性
  • k: SipHashのアウトプットをランダム化するのに使われる128-bitの鍵

結果はN * (P + 1)の最小サイズのバイト列である。

Lの元のアイテムは最初に上記で指定された64-bitの符号なし整数にハッシュされ、ソートされる。その連続した値間の差(以後deltasと記載する)はゴロム・ライス符号を使って順次bit streamにエンコードされる。最後にbit streamは最も近い境界バイトに0でパディングされアウトプットのバイト列にシリアライズされる。

construct_gcs(L: [][]byte, P: uint, k: [16]byte, M: uint) -> []byte:
    let set_items = hashed_set_construct(L, k, M)

    set_items.sort()

    let output_stream = new_bit_stream()

    let last_value = 0
    for item in set_items:
        let delta = item - last_value
        golomb_encode(output_stream, delta, P)
        last_value = item

    return output_stream.bytes()
セットのクエリ/復元

圧縮されたGCS内にアイテムがあるかどうかメンバーシップを確認するには、エンコードされたdeltasからハッシュされたセットのメンバーを再構築する必要がある。これを行う手順は圧縮の逆で、deltasは1つずつデコードされ累積和に加算される。各中間和はオリジナルのセットのハッシュ値を表す。メンバーシップを照会されたアイテムはセット内のメンバーと同じ方法でハッシュされ、再構成された値と比較される。照会する際に圧縮解除されたセット全体をメモリ上に展開する必要はない。

gcs_match(key: [16]byte, compressed_set: []byte, target: []byte, P: uint, N: uint, M: uint) -> bool:
    let F = N * M
    let target_hash = hash_to_range(target, F, k)

    stream = new_bit_stream(compressed_set)

    let last_value = 0

    loop N times:
        let delta = golomb_decode(stream, P)
        let set_item = last_value + delta

        if set_item == target_hash:
            return true

        // Since the values in the set are sorted, terminate the search once
        // the decoded value exceeds the target.
        if set_item > target_hash:
            break

        last_value = set_item

    return false

一部のアプリケーションでは単一のアイテムの照会でなく、あるセットが含まれているかのチェックが必要になるかもしれない。これには圧縮されたGCSのソート構造を利用することで、個々のアイテムを個別にチェックするよりはるかに効率的に実行できる。まず最初に照会するアイテムはすべてハッシュ及びソートされ、圧縮解除されたGCSのコンテンツと順次比較される。疑似コードについてはAppendix Bを参照。

ブロックフィルタ

このBIPでは1つの初期フィルタタイプを定義する。

  • Basic (0x00)
    • M = 784931
    • P = 19
コンテンツ

Basicフィルタは軽量クライアントが通常のBitcoinウォレットと同期するのに必要なものすべてを含むよう設計されている。Basicフィルタはブロック内の各トランザクション毎に以下のアイテムを正確に含まないといけない。

nil項目はフィルタ要素の最終セットに含まれてはならない。

我々は将来ソフトフォークを介して、フィルタを容易にコミットできるよう全てのOP_RETRUNアウトプットを除外する。現在のwitness commitmentと同様、将来のコミットメントの領域になる可能性があるのが、コインベーストランザクションの追加のOP_RETURNアウトプットだ。全てのOP_RETURNアウトプットを除外することで、コミットメントとコミットされるアイテムの循環依存性を回避する。

構成

Basicフィルタタイプは以下のパラメータを持つゴロム・ライス符号のセットとして構成される。

パラメータPは必ず19に設定し、パラメータM784931に設定しなければならない。PMを個別に設定できる場合、>M=1.497137 * 2Pと設定することが最適に近いことが分析で分かった。

実証分析によると、これらのパラメータは偽陽性によりダウンロードされる予想ブロック数とフィルタ自体のサイズの両方を考慮し、使用帯域幅を最小に抑えるために選択されている。

パラメータkにはフィルタを構築するブロックのハッシュの先頭16バイトを設定しなければならない。これにより鍵に決定性がありながら、ブロックごとに変化することが保証される。

NはGCSをデコードするのに必要なので、シリアライズしたGCSの先頭に含める(CompactSizeで記述する)。したがって完全にシリアライズしたフィルタは以下のようになる。

  • N: CompactSizeとしてエンコードされている
  • 圧縮されたフィルタ自体のバイト
シグナリング

このBIPは新しいservice bitsを割り当てる。

名称 service bit 内容
NODE_COMPACT_FILTERS 1 << 6 このservice bitsが有効なノードは、フィルタタイプ0x00および0x01についてBIP-157のすべてのメッセージに応答しなければならない。

互換性

このブロックフィルタの構成は、既存のソフトウェアと互換性は無く、新しいフィルタの実装が必要。

参照実装

Light client:https://github.com/lightninglabs/neutrino

Full-node indexing:https://github.com/Roasbeef/btcd/tree/segwit-cbf

Golomb-Rice Coded sets:https://github.com/Roasbeef/btcutil/tree/gcs/gcs

Appendix A: 代替案

ゴロム・ライスエンコードセットに決まるまでにはいくつかの代替セットエンコードが検討された。このAppendixのセクションでは、そのいくつかの選択肢と、選択しなかった根拠を列挙する。

Bloom filters

Bloom filtersはおそらくセットのメンバーシップをテストするための最もよく知られた確率的データ構造で、BIP-37でBitcoinに導入された。Bloom filterのサイズは同じ偽陽性率を持つGCSの予想サイズよりも大きく、これが採用しなかった理由だ。

暗号アキュムレータ

暗号アキュムレータ*4は、(他の操作の中で)一方向のメンバーシップテストを可能にする暗号データ構造だ。アキュムレータの1つのメリットは、アキュムレータに挿入されるデータの数に関係なく一定のサイズであることだ。しかし暗号アキュムレータの現在の構成では最初にtrusted setupが必要となる。さらに強RSA仮定に基づくアキュムレータはセットのアイテムを関連グループ内のプライムの代理人マッピングする必要がある。

行列ベースの確率的集合データ構造

Bloom filterに比べて空間的に効率が良いmatrix solverベースのデータ構造が存在する*5。たがGCSベースのフィルタは実装の複雑さがはるかに低く、分かりやすいためGCSベースのフィルタを選択した。

Appendix B:疑似コード

複数の要素にマッチするゴロム・ライスセット

gcs_match_any(key: [16]byte, compressed_set: []byte, targets: [][]byte, P: uint, N: uint, M: uint) -> bool:
    let F = N * M

    // Map targets to the same range as the set hashes.
    let target_hashes = []
    for target in targets:
        let target_hash = hash_to_range(target, F, k)
        target_hashes.append(target_hash)

    // Sort targets so matching can be checked in linear time.
    target_hashes.sort()

    stream = new_bit_stream(compressed_set)

    let value = 0
    let target_idx = 0
    let target_val = target_hashes[target_idx]

    loop N times:
        let delta = golomb_decode(stream, P)
        value += delta

        inner loop:
            if target_val == value:
                return true

            // Move on to the next set value.
            else if target_val > value:
                break inner loop

            // Move on to the next target value.
            else if target_val < value:
                target_idx++

                // If there are no targets left, then there are no matches.
                if target_idx == len(targets):
                    break outer loop

                target_val = target_hashes[target_idx]

    return false

Appendix C:Test Vectors

P値が19の5つのテストブロックのTest Vectorここに公開されている。1〜32のPの値についてこれらのTest Vectorを生成するコードはこちら

所感

  • P2SHやP2WSHのredeem scriptにプッシュされているアイテムはこのBIPのフィルタでは対象外なのはちょっと意外。
  • 偽陽性のパラメータはBIP-37は推奨値があるがBIP-158では固定されている(全チェーンで共通のフィルタになるので固定になるのはまぁ当然)。
  • ゴロム・ライス符号含めて理解するのには実装してみた方が早いかも。そのためにも検証用にTest Vectorsが欲しい。