Previous Topへ Next

なんちゃってなIT用語辞典23

多分何の役にも立たないIT用語辞典
How that IT term sounds funny


アナログ、デジタル


Analog/Digital


アナログとデジタルって何だろう?

20年前にはこの言葉はどうにも分かりにくい言葉だった。
ところが今では私たちの身の回りにはデジタルなんちゃらという名称が氾濫している。
今では何でもかでもデジタルでないと、もう旧世紀の遺物であると言わんばかりだ。

ケータイ電話はもちろん、音楽もデジタルならビデオもDVD(デジタルビデオディスク)で見るのが普通になったし、あげくはテレビまで地上波デジタル放送だのでデジタル化されるという。

もはやあらゆるものがデジタルであるのは当たり前になる始めているのが今の時代だ。
でもここで根源的な疑問を持つのは結構重要かもしれない。

つまり
「デジタルって何?」
「アナログとデジタルってどう違うの?」
ということだ。

単純なというか卑近な例で言うと会社で扱う書類は、昔はすべて手書きだった。
タイプで書類を打っていた時代もある。
やがてこれがワープロになって、今ではほとんどすべての書類をパソコンを使って打つ時代になった。
どれがアナログでどれがデジタルだろうか?

手書き書類がアナログだというのはあまり反論が無いだろう。
タイプも似たようなものだ。
パソコンのテキストファイルはデジタルだろう。
じゃその過渡期にあったワープロはデジタルなんだろうか?それともアナログなんだろうか?

私のような旧世代は
「デジタルは無機質でアナログは自然なもの」
という思い込みがある。
これがデジタルとアナログの差異だろうか?


この例に答えを出すならワープロはある意味デジタル的だがアナログデータだと言える。
またデジタルはアナログよりも無機質だというのは昔の、あまり大きなデータを扱えなかった時代のコンピュータの表示がそうだったからそういう思い込みができたというだけの話だ。

もう少し詳しく説明するとこうなる。
デジタルの本質はその圧縮技術と拡張性ということになるので、紙の書類をデジタルファイルで置いておくワープロはそのプロセッシングについてはデジタル技術を使っているが、拡張性も応用性も無いのでアナログ的といえる。
デジタルのテキストデータはデータベース化が容易になり、メールに添付して簡単に地球の裏側にも送れるようになった。
またワードファイルに変換したり、イラストレータデータと組み合わせたりということが簡単になった。ここまでできて初めてデジタルになったといえる。

また昔のコンピュータタイプは16ピクセル程度の小さなデータを使っていたので、その書体は独特のカクカクな書体を使っていた。

それでコマンドなどを扱っていたのでデジタルは無機質というイメージが定着してしまった。
しかし現在は遥かに細かい分解能を持つフォントを使い、さらにアンチエイリアスなどの技術を使っているので機械的なタイプのフォントよりもずっとライブな、有機的なフォントも扱えるようになった。

同じく音楽データなどの圧縮技術も進んでいなかった当時は、音楽は重要なデータがカットされ生硬な音質になってしまったが、今ではアナログの録音システムよりも遥かに生っぽい音が出せるようになってきた。

ところがデジタルの威力は本当はそういうことではない。

例えば音楽データを放送で送信することを考えるとこうなる。
従来のアナログ放送の、例えばFMだと搬送波に連続的に変調をかけて送信し、受信側はその変調部分を検出してアナログデータの音楽信号として取り出していた。
この方式だと5分の音楽データを搬送するのに5分間まるまる電波を占拠することになる。

ところがデジタル放送になれば波形を時間軸と音圧方向にメッシュをきって、それにすべて番号を打ち波形が通過するところを数字で表現すればデジタルの音楽データになる。
その点と点の間はデータが欠落しているわけだから、この波形は本当はカクカクのギザギザな波なのだがもしそのギザギザが人間が認識できる範囲よりも細かければ、人間には滑らかな波に聞こえる。

そうして数字化すると5分の音楽データを搬送するのに1分しかかからなくなる。
搬送波の条件さえクリアすれば、リアルタイムよりも遥かにたくさんの数字を送りつけることができるからだ。

ということは5分の放送をするのに電波は1分しか占拠しないことになる。
ということは細かく時間分割すれば、一つの周波数帯で5チャンネルの放送が可能になるわけだ。
デジタル放送の多チャンネル化はまさにこうして行われている。

こうした時間軸に対して拡張性があるだけでなくデジタル化されたデータはあらゆるメディアに分配し再利用される拡張性も備える。
例えばmp3としてパソコンに取り込まれた音楽データはiPodに転送されるというような恩恵を、今まさに音楽愛好家は受けている。

またmp3はそのまま聞けるだけでなくiMovieやFinalCutProのようなビデオ編集アプリに取り込まれビデオの背景音楽になる。
その音楽データファイルの一部のレイヤーに曲名やアルバム名、アーティスト名、曲リストNo.などのデータを取り込める。テキストだけでなくアルバムジャケットアートの画像を取り込んだりできる。
CDをmp3に取り込む時にはインターネットを通じて、CDDBから自動的に曲名、アーティスト名を取り込むことができる・・・

等々、その拡張性は際限なく広がっていく。

これこそが本当のデジタルのメリットなのだ。


この様々な拡張性を持つということがデジタルの本質なのだが、初期の頃のデジタル家電ではそのメリットをコンシューマに十分伝えることができなかった。
だから家電店の店頭では説明の手間を省くために
「デジタルだから絵がきれいですよ」
「デジタルだから音質がクリアですよ」
というような説明がされていた。

本当はデジタルだから絵がきれいということは無い。
動画でも音楽でも音質や画質がきれいというのはそのプロセッシングの精度の問題で、デジタルだからきれいということも無いし、アナログだから劣るということも無い。

ただアナログデータにはそういうロスレスでどんどん変換できて別のステージで活用できたり、新たなデータをどんどん付け足したりなどということはできない。

本当のデジタルのメリットはこういうことなのだが、
その説明はこの「通信」の概念が分からない人には説明が難しいのでつい簡単に「デジタルだから絵がきれい」式の説明でお茶を濁してしまう場面がある。
これがデジタルという言葉に対する誤解を多く生んでいるように思う。

この文脈でいうとデジタルのメリットはまだ十分生かされていないともいえる。
「通信」こそ電子機器が最後に追求すべきメリットなのだ。
まだ見えていない可能性がたくさんあると思う。
ところが人間の発想というのは意外にそれまでの習慣に規定されてしまうものだ。

このデジタルに対する誤解は実は一般コンシューマだけでなくプロの間にも結構根強く残っているように思う。

例えばカセットに音楽を録音して持ち歩いていた時代の名残で、メモリカードに音楽を録音して持ち歩けるなんていうアナクロな製品を日本を代表するデジタル家電メーカが作っていたりとか 、そういうケースだ。

カセット時代にはカセット一本に1万曲ものデータを取り込む技術なんて存在しなかった。
だから何本もカセットを持ち歩いて、一本聴き終わったら次のカセットに交換して聴いていた。
このスタイルは当然今後も続くだろうという発想がこの製品の前提だろう。

しかし今は4〜5万も出せばタバコケースよりも小さいmp3プレイヤーに数万曲もの音楽データが入ってしまうという製品が珍しくもなく手に入ってしまう。
そういう時代にこのメモリカードに数十万円もかけて、バラバラと持ち歩くなんていう製品にコンシューマは魅力を感じるだろうか?

デジタルのメリットを理解していない開発者が開発したのが、このメモリカードをカセット代わりに次々と交換して聴くmp3プレーヤだろう。

しかし他人の失敗をあざ笑うことはできない。
私が携わっている業界にも、いまだに
「デジタルビデオだから画質は向上する」
なんていう根拠で機材のデジタル化を推進する人がいたりする。しかもそういう人が技術系の人間だったりするから、我が業界の後進性もデジタル家電業界を笑うことはできないわけだ。

必要なのは技術というよりも人間の発想の転換なのかもしれない。






LAN/USB/MIDI


Local Aria Network/Universal Sirial Bus/Musical Instruments Digital Interface


今から何年前か、スウェーデンのエリクソンにまだ開発途上のBluetoothを取材に行ったことがある。
この時にBluetoothの可能性として、パソコンのキーボードやマウスを繋ぐという無線SCSIのような使い方だけでなく、テレビを繋いだり、冷蔵庫を繋いだり、アイロンを繋いだりとありとあらゆる家電製品を繋ぐことで大きな可能性が生まれてくるというデモを見せられた。
そのことはここにも書いた。

このデモを撮影したビデオを持ち帰って、あるキャスターに見せたところ彼女の素朴な疑問がこうだった。

「パソコンだけならともかく、こんなに家中の家電製品にBluetoothを付けちゃったら混信しないの?」

もちろん混信なんかしない。
それがこの技術の肝だからだが、でもなぜ混信しないのかという理由は理解しにくいのかもしれない。


その仕組みを理解するためにはまずシリアルバスという概念を理解する必要がある。
私がたまたまそのデータの流通の仕方を視覚的に知っていたのは、MIDIという規格が始まった時に音楽の打ち込み制作をやっていたからだ。

1980年代の半ばに電子楽器のデジタル化が始まった。
最初はシンセサイザーのデジタル化からそれは始まった。
そのあたりのことはここにも書いたが、それまでラジオの検波機のような仕組みだったシンセサイザーという楽器が、実質中身はコンピュータという構造に変わってしまった。

その時に大きな変化になったのはその音源の発振の方法もさることながら、MIDIケーブルで機器同士がつながるようになったということも大きい。
それまでのアナログ楽器には外部に機器を付けるとしたら、もう音の波形になっている電気信号にエコーをかけるとか、リバーブをかけるとかそういうアナログ的な音の加工しかなかった。
ところがMIDIというのは根本的にそれとは考え方が違う。
Musical Instruments Digital Interfaceという略語の意味でも分かるようにこのDINケーブルのインターフェイスは楽器のコントロールそのものを外部とやり取りする信号規格だった。

早い話、あるシンセを鳴らそうと思ったらアナログ楽器の場合はその本体についている鍵盤を叩かないと音が出ない。

ところがMIDIでつながっている楽器はその本体についている鍵盤に全く触らなくても、外部の鍵盤を叩くことで鳴らすことができる。

これを利用して一つの鍵盤を演奏すると、それにつながる数十台のシンセサイザーを同時に鳴らすということも可能になる。
事実そういう方法でオーケストラの音を再現したアーティストもいた。

そうすると音源を内蔵した楽器は何も必ずしもピアノ式の鍵盤を装備していなくても良くなるわけだ。
中には最初からMIDIで使う2Uラック型の楽器とは思えないような形をしたシンセサイザーも出てくる。
これも外部キーボードで切り替えて演奏すれば良いわけだから、シンセサイザーという楽器自体が単体でピアノ鍵盤がついた姿だという概念がなくなってしまった。
またMIDI信号は単なる演奏情報をやり取りするだけでなく、音色を次々と切り替えたり音色の設定をリアルタイムで切り替えたりというアサインが可能になってきた。

ここでさらにもう一段の進化が現れる。
外部からデジタル信号でコントロールできるのなら、その外部信号は何もリアルタイムな演奏家が鍵盤を叩く情報でなくても良い。

それならそのセンターにシーケンサーという専用機やパソコンを置いて、打ち込みで音源をコントロールするという音楽の制作スタイルでも良いわけだ。

実は今日の音楽の制作現場はほとんどこの方法で、進められている。
パソコンでコントロールされた音源の音が、ProToolsなどをインストールしたパソコンに取り込まれ、そこで歌やギターなどの生演奏情報とミックスされ、切り貼りされ今日の音楽は「作製」されている。


この時にこの媒介になるMIDIという信号のスタイルなのだが、その信号をリアルタイムでモニターするという機能が私が持っていた機材にはたまたまあった。
それを見ているとタイミング情報の「H8」という信号が決められたテンポで常に発振されていて、その合間に鍵盤情報の「A2」などの信号が発信されるという構造になっている。

面白いのはMIDIというのは16チャンネルの信号を同時に送れるのだが、その信号を送っているケーブルはDINケーブルという4ピンのケーブルを使っているものの実際には信号は1本の線で流れているという構造になっているということだ。
つまり1本の線を16チャンネル分の演奏信号データで分け合っているという仕組みだ。

ここにどれくらいの信号が流れるかというと例えば

というようなテンポの場合、音の分解能を16部音符ということにすると1分間に
120×4=480
の音符信号が流れることになる。
これは音符だろうが休符だろうが、つまり音が出ていなくてもブランクのところにもタイミング信号が流れるので必ずこの数になる。

信号一個は先ほども書いたように「A2」のような1〜8、A〜Hで表せる16進数の信号2ケタで表されているので
120×4×2=960
の信号が流れる。
さらにこの信号は16チャンネルに分配されるのでそのチャンネル番号の16進数の記号が1ケタつくので、
120×4×3=1440
となる。
さらにこれが16チャンネル分流れるので
120×4×3×16=23040
の信号がやり取りされることになる。
これは分解能を16分音符にして計算しているが、実際にはMIDI規格では1小節を128等分にする分解能が採用されているので
120×4×3×16×8=184320
これだけの数の信号が各MIDI機器間でやり取りされていることになる。

この数字だけ見ているとかなり大きいデータのように見える。
実際80年代当時のコンピュータは、性能が低かったので大きな演奏データを送るとよくコンピュータがスタックしたり、タイミングがずれたりということが起こっていた。

しかし今はハードウエアも進歩してクロック数もKHz(キロヘルツ)からMHz(メガヘルツ)へ、そして今ではGHz(ギガヘルツ)という単位のスピードが当たり前になってきた。
つまりこれは1秒間に10億個の2進数データをアサインできるという意味だ。
この数字を見るとMIDIデータの18万個/毎分なんていう数字は大したことないともいえる。

話が大幅に脱線したが、ここでいいたかったことはMIDIデータの大きさではなくてその構造だ。 このデータは最大16個の機器を並列に繋いで、さらにタンデム(くし形、直列)にいくつもつなげるMIDI信号が基本的には1本の線でやり取りされているという構造が言いたかったのだ。

つまりこれだけの多く情報を同時に処理しているように見えるが、実際にはコンピュータや楽器のプロセッサはそのデータを一個ずつ順番に読み込んでアサインしていくという作業の仕方をしている。

ここに複数のデータの混信が起きない秘密がある。

いくつも機器を繋いで、並行に処理しているようだが実際にはネットワークグループの中でやり取りされているデータは1本で一列化された(シリアルな)データで、各プロセッサはそれを一個ずつ処理している。
Aの機器がBの機器に信号を送り、Cの機器がDの機器に信号を送るということが同時に行われているように見えるが、実際にはAの発信しているデータはCにもDにもすべて受信されているが、このC、Dは自分に関係ないから無視しているだけという状態な訳だ。

これがシリアルバスの信号の基本的な仕組みだし、これは有線でも無線でも同じことだ。


この1本の線ですべてのチャンネルの機器間通信をシリアルにやっているためにかえって混信が起きないという仕組みは実はMIDIだけではなくあらゆるデジタルネットワークで応用されている。
早い話がLANがそうだ。
LANは有線でも無線でも同じことだが、そのノードの中のすべての通信はルータによってコントロールされている。ルータは単にデータの宛先を分配しているだけでなく通信のタイミングをノード内のすべての機器に伝え、すべての機器はそのルータの指示に従って、適切なタイミングでデータを発信する。
そのデータはノード内のすべての機器にシリアルに受信されるが、宛先信号となるIPアドレスなどで信号はどの機器に当てられたものかが認識できるので、他の機器はこれを無視する。
宛先の機器だけが反応して、例えばパソコンから送られたプリント情報にプリンタが反応する。
この時に同じノード内にある別のパソコンやスキャナーが突然変な動作をし始めるなんてことは無い。

USBなんかも名前にシリアルバスという単語が入っていることから分かるように、これと同じ仕組みが採用されている。
Bluetoothは機器間のコントロール情報をやり取りする無線規格で、LANはイーサネット規格によって構築されたファイル通信規格としてほぼオーソライズされている。

それに対してUSBはかつてのコンピュータの機器間を受け持っていたSCSIの後継規格として登場した。今ではUSB2.0という高速通信規格が一般化してきて、AppleやSONYなどが採用してきたIEEE1394(FireWire)規格はもはや軍門に下りかけている。
(AppleはどうやらFireWireに見切りをつけて最終的にUSB2.0に移行するつもりのようだ。こういう規格でAppleがしくじるのは珍しいことだが、どうもこれは仕方が無い趨勢のようだ)




2005年12月29日














Previous Topへ Next





site statistics