Previous Topへ Next

なんちゃってなIT用語辞典18

多分何の役にも立たないIT用語辞典
How that IT term sounds funny



基本ソフトウエア/ユニックス


OS/UNIX



インターネット上の場所を示すURLというものがあるということをここの別頁にも書いた。
インターネット上のアドレスのようなものだが、例えばこの頁は
http://www.geocities.jp:80/nmuta2003/dict18.html
というURLで表現されている。

このURLはどういう意味かというと
HTTP(ハイぺー・テキスト・トランスファー・プロトコル、つまりhtmlのテキストや画像、音楽などの素材を転送する通信手順)で通信するということわり(スキームという)から始まって、 世界にひとつしかないサーバ名(ドメイン名)とそのポート番号にあたる
www.geocities.jp:80
という表示が続く。

その次の
/nmuta2003/dict18.html
という部分がそのサーバの中で、このページが置かれているディレクトリを表示するパス(ファイルにたどり着くまでの道順というほどの意味)を表示している。

このURLに使われているパスの記述の仕方なのだが、UNIXを触ったことがある人ならすぐにピンと来ると思うが、ここにはUNIX式のパス記述法が使われている。

それも道理で、インターネットに置かれた素材(リソースという言い方をする。これも別頁で触れた)を世界中どこからでも閲覧できるというこのシステムは欧州合同素粒子原子核研究機関(CERN)でUNIXを使って開発されたからだ。

正確にはCERNにいたTim Berners Leeという人物がNeXTSTEPというOSで開発した資料閲覧システムがこのWWW(ワールドワイドウエブ)のもとになった。
所内の研究資料を研究者がいちいち書庫に取りにいかなくても、自分のワークデスクで居ながらにして全て見ることができるという閲覧システムがこのWWWのそもそもの考え方だ。

そのためにTim Berners Leeは所内の研究資料を電子文書化してサーバに保管するだけでなく、全てのサーバに固有の名前を付けてそのサーバの中のディレクトリを記述するだけでどの文書も離れたところで自由に閲覧できるという仕組みを作った。

この発明は重要で、インターネットが今日の姿になったのはこの発明のおかげだった。

インターネットという項目で書いたように最初のインターネット通信実験をしたのは1969年のUCLAのクラインロック教授のチームだが、当時のインターネットはまだ相対の通信だった。
つまり片方が送信動作をしている間、相手方は受信状態でスタンバイしていないとイケナイという電報みたいな通信システムだった。
勿論これでもインターネットなのだが、その機能は今日の我々が持っているインターネットのイメージとはかなり違う。

この電報式コンピュータ通信をサーバ間で自由にアンタイムにデータをやり取りできる、つまり今日の我々が考えるインターネットの姿にほぼ近づけたのがTim Berners Leeの閲覧システムということになる。
このときTim Berners Leeは自分が使っていた特殊なOSでこの閲覧システムを作ったために、そのOSでの記述法がWWWに引き継がれ、今日のインターネットでのURL記述の標準的な作法になっている。

Tim Berners Leeが使っていたNeXTSTEPというOSはMacファンというかAppleファンなら知っているかもしれない。
Apple社の創業メンバーの一人だったSteve Jobsが、後に内紛のために追い出されてしまい次にNeXT社という会社を設立することになる。Steve JobsはこのNeXT社でOSの開発を始めた。

Appleの主力製品だったMacOSを当然使うことができなくなったSteve JobsはUNIXに着目し、このうちライセンスフリーなBSDUnixをベースにしたOSを開発した。

これがNeXTSTEPで、だからTim Berners Leeが提唱したインターネットのもとになったWWWもUNIX式のURL記述法を使っていたのだ。

(ちなみにこのNeXTSTEPは後にApple社に復帰したSteve JobsによってMacOSXとしてMacと統合された。)

つまり今日のインターネットはまさにUNIXで構築されたわけだ。
実際今でも、インターネット上のサーバは大部分がUNIXだ。

インターネットはWindowsで動いていると誤解しているオジサンたちをよく見かけるが、これは大きな誤解であり「世界の全ては自分のデスクトップと同じようなシステムで動いている」と信じ込んでしまう想像力のなさがこういう誤解を生んでいる。

実際にはインターネットにとってはWindowsは異物以外の何物でもなくて、訳の分からない文字コードやファイルシステムをルール無視で突っ込んでくる困ったならず者でしかない。


ところでこのUNIXとはどんなソフトウエアなのだろうか?
最近ノイマン型コンピュータのことなどをいろいろ調べているうちに面白い話を見つけたので、そのことを書いてみたくなった。
そのためにそもそもOS(基本ソフトウエア)とは何かという話から始める。

前項でノイマン型コンピュータが生まれた時に、「ハードウエア」と「ソフトウエア」という概念が生まれたと書いた。
計算のプロセスを真空管と配線で作り上げた世代のコンピュータから、CPUとメモリというハードウエアの役割を決めてそこで順次処理で計算動作を行い、その動作の内容は「プログラム」と呼ばれる「ソフトウエア」でコントロールする世代に進化した。
これが「ノイマン型コンピュータ」の概念だった。

計算プロセスのプログラムは配線を考えるというスタイルから、紙の上でコンピュータに入力すべきプログラムを書くというスタイルに変わった。
ノイマン型コンピュータは、プログラムの切り替えだけで様々な動作を連続的に実行できるという汎用性を獲得したということも既に書いた。

しかしこういうコンピュータが実現してひとつ問題が出てきた。

配線と真空管でできていたコンピュータは大掛かりでしかも切り替えが効かない鈍重な奴だったが、良い点はわかりやすいということだった。
それは回路が10進法で構成されていたからだということが大きい。
10進法の回路は0番から9番までの10個のキーとそれに対応した信号が流れる回路が必要だ。 それを例えば足し算のプログラムを構成するとしたら、1+9で1と9のキーを叩き最終的には10という二ケタのランプが点灯するように回路を組めば良かった。

10本の信号を処理する回路が必要なわけだから、1本だけしか必要としないデジタル回路と比べると機械的には非常に無駄が多いわけだが、人間から見ると分かりやすかった。

ところが全ての信号を最終的には0と1の2種類の信号に変換してしまうデジタル回路はメカニズムはシンプルだが、人間から見ると感覚的に理解しにくい。
また当時のCPUができることは非常に少なかったので、命令セットもシンプルにしなくてはいけなかったのだが、そのために逆にプログラムは非常に複雑で分かりにくいものになってしまった。

結局ノイマン型コンピュータになって一番問題になったのは

「プログラムを書くのが難しい」

というこの一点につきる。


これを解消するために考えられたのがOS(オペレーティングシステム)ということになる。

人間が直接機械レベルの言語でプログラムを書くのは困難だし手間も大きいし、何よりも直感的ではない。
コンピュータを使う上で本来考えなくてはいけない、その特性の有効利用を考えるべき時間の大部分を、この煩雑なインターフェイスをまともに動かすことにとられてしまうという本末転倒なことになってしまう。

そこでプログラムは人間が使っている英語や10進法ベースの数式に近い言語で記述して、それを機械に読み込ませる時に翻訳(コンパイル)するという方法が考えられた。

このプログラム記述の言語が動く環境、つまり翻訳などの共通のインターフェイス(ある環境から別の環境にデータを受け渡す時の決まり事)を作ってしまえば良い。

これがOSという概念だ。

この言葉は放送用語では「基本ソフトウエア」などという意味不明な訳語に置き変えるという変な決まりになっているが、英語の直訳の「操作システム」という言い方の方が実体をよくあらわしていると思う。

まさにコンピュータの操作を簡略化するためのシステムとして考え出されたからだ。

最初のOSは何だったのかはよく知らないが、IBMが開発したFORTRANなんかは最初期のOSとしてよく引き合いに出される。
これの詳細は割愛するが数式(Formuler)を自動変換(Translation)するということから名前がついたこのシステムは、名前の通り数式を使った計算に特化したシステムで、私が駆け出しの当時に営業に行った先のソフト屋さんが
「FORTRANは数式計算に強いので橋梁の強度計算とかの技術計算に使われることが多い」
と教えてくれた。
つまりそういうシステムだ。

これと同じ世代としてCOBOL、BASIC等が輩出してきた。

このおかげでコンピュータはそれ以前のパンチカードを使って直接マシン語で入力する専門家でないと到底使い方が理解できない機械から、英語によく似た暗号のような呪文をキーボードで入力すると動くという、専門家でなくても必死で勉強すれば使えるようになる(かもしれないし、ならないかもしれない)というレベルにまで降りてきた。


こうして出てきたいくつかのOSのうちで、注目すべきものがマサチューセッツ工科大学の学生の中から起こった。
「タイムシェアリング」という考え方を実現したMULTICSというOSだ。

ノイマン型コンピュータの欠点はプログラムが難しいという問題の他に、マルチプロセッシングという考え方がないという点だった。
どういう意味かというと、もし橋梁の強度計算でひとつその能力が占拠されると、その作業が終わるまではそれ以外の作業には一切そのコンピュータを使えないということだ。

その計算が終わるには10時間かかるかもしれない。
そうすると10時間の間、経理システムでコンピュータを使いたい経理の女性も、この橋梁計算 が終わるまでは、領収証の合計という単純計算にすらこのコンピュータを使うことができない。

このタイムシェアリングというのはどういうことかというと、一秒間を60分の一秒などの短い時間にわけて、ある時間はAの作業をしたら次の60分の一秒はBの作業をするというふうに時間で分けてしまえば、あたかも二台以上のコンピュータが有るかの如く処理ができるということだ。

これで高価なコンピュータを常に能力一杯に使えるので、効率が上がるというわけだ。そういう効率を常に考えなくてはいけないぐらい、当時のコンピュータというのは高価だった。

(今現在のオフィスのデスクトップに転がっているPCなんてのはCPUの能力一杯に負荷がかかることなんて一日に数分も有るかどうかというところで、大体はアイドリング状態だ。メールを書いたり読んだりしている時間はほとんどPCはアイドリング状態だと考えて良い。
それだけコンピュータは高性能化したともいえるし、コンピュータのコストは安くなったともいえる。それにコンピュータを使った仕事は当時と比べてたいして進歩していないともいえる。)


このマルチタスクという考え方を実現したMULTICSは、それ以外にも今日のコンピュータが備えている基本的な特徴をいくつか備えていた。

例えばファイルという考え方だ。

かつてはコンピュータに入力するデータは、処理するべきデータもプログラムもパンチカードで入力された。
パンチカードは一行の文字列が80文字と決められていたから、昔のコンピュータのデータの最小単位はこの80文字の文字列だった。
どんなに大きなデータもこの一行80文字のカード単位に読み込まれて処理された。処理が終わったデータは紙テープにパンチして出力するということで動いていた。

MULTICSではもっと大きな記憶野をコンピュータの中において、一連のデータを「ファイル」という名称でグループ化して保存するという考え方に変わった。

またファイルを階層化するという概念も今日的な特徴だ。

データをファイルという形でひとまとめにして保存し、その場所も枝分かれした階層(ディレクトリという)で管理してその在り処を明らかにするというのがその考え方だ。
実際のデータの在り処はコンピュータ本体に装着された1インチテープの中にバラバラにあるのだが、コンピュータのインターフェイス上は、木の幹から枝の先へたどっていくような探し方で目的のファイルにたどり着くことができる。

このインターフェイスは今日のコンピュータではむしろ当たり前というか標準になっている。
またこういう効率的なデータ管理ができるようになったから、先のタイムシェアリングのようなマルチタスクも可能になったといえる。


マルチユーザ、マルチタスクを可能にしたMULTICSはまさに今の近代的なコンピュータの原型といえたが、残念ながらこのプロジェクトは失敗した。

当時のハードウエアがこの大規模なシステムについていけなかったという問題のためだ。
しかしこのプロジェクトは意外な副産物を生み出した。


このプロジェクトにAT&Tから出向して参加していたKen Thompsonというプログラマーも、MULTICSの失敗でAT&Tに戻った。
しかし彼はMULTICSで開発された宇宙旅行ゲームがあまりに面白かったので、なんとかこのゲームを自分が持っている中古の小型機に移植できないかと考えていた。

そこで彼がやったのはMULTICSの機能のうち、基本的な機能だけを移植した「間引き」したOSを組上げたということだ。

MULTICSは複数のユーザが同時に複数の仕事を実行するマルチ(複数)なシステムとして計画されたが、彼は自分一人がゲームを楽しめれば良いと考えたので一人のユーザが一人で使うというシステムを組上げた。

その名前もMULTICSをもじって「UNIX」と名付けた。(UNIはひとつの、単独のという意味)

UNIXは小型で軽いMULTICSとして考えられたわけで名前もパロディみたいなものだった。
それで彼はこのOSで宇宙旅行ゲームを一人で満喫していたわけだが、この軽くて安定したOSがいつしか研究所内で評判になっていく。
同僚に求められるままにこのOSをソースコードごと配っていくうちに、彼等はUNIXの意外な可能性に気付き、これに様々な機能を付け足していき今日のUNIXになっていった。

最初はUNIXから除外されたマルチユーザ、マルチタスクという機能も、結局開発版のUNIXでは復活することになった。

むしろ今日ではUNIXというのはそういうOSだというイメージが強いが、最初はそうではなかったということだ。


これは30年以上も前の話で、長らくはコンピュータというのはUNIXベースのものという時代が続いた。
パソコンというものが普及しはじめて、なぜかこのクライアントPCの世界だけはMacOSとかWindowsとか非UNIXのコアを持ったものが主流になったが、これはコンピュータという全体の歴史から見ると非常に特異的な現象だった。
クライアントPC以外のコンピュータはこの時代から今日に至るまでUNIXベースのものが主流だったし、これからもそうだと考えるのが順当だ。

いまMacのコアがUNIXになり、またUNIXをベースにしたLinuxがクライアントPCの中で勢力を持ち始めているというのは、この歪んだパソコンの歴史が次第に正常化の方向に向かっているということなのかもしれない。

そのLinuxもかつて大型化し過ぎたUNIXを低性能な小型パソコンでも動くようにしたいということで、UNIXのバリエーションのMINIXから分化したグループにより開発された。
いわばLinuxもUNIXの小型版としてスタートした。

Linuxの最初のソースコードを書いたLinus Torvaldsのインタビューを読んだことがあるが、
「LinuxもGUI化を進めることでWindowsにとって代わるクライアントOSとして普及するのではないか?」
というインタビュアーの質問に対して
「LinuxのGUI化は意味がない。」
といきなり切り返していたのが印象的だった。

「Linuxは小さくて低性能なPCでも充分動くUNIXが欲しいという要望に応えて開発した。Linuxのカーネルを利用できるということに意味があるのであって、それがWindowsの代わりになるかならないかという議論には私は興味がない。」

いかにもこの人物らしいぶっきらぼうな答え方だが、Linuxの開発動機はこういうことだったらしい。
このいきさつもUNIXの誕生に似ている。

コンピュータのイノベーションはこのように、大型化し過ぎてマンモスやサーベルタイガーのように環境に順応できなくなった本流とは別のところから常に生まれてきているように思う。

またその起源の多くはサブカルチャー的な趣味の世界や、ボランタリズムというようなものだという印象をコンピュータの歴史をたどっていくといつも感じる。

世界一の富を築き、その現金を武器に競争相手を実弾攻撃でぶっつぶして大勢力になったシステムというのは、コンピュータの歴史上たったひとつしか存在しないということにいつも気がつかされるのだ。

それは最初で最後の事例になるのではないだろうか?

なぜなら1995年にその普及版が売り出されて大勢力になって以来この10年間、クライアントPCの世界にもたらされたものは「停滞」以外に何もないからだ。
10年前と何も変わっていない。ただクロックが高速化しただけだ。
コンピュータの歴史の中でもっとも長いこの停滞が過ぎたら、ユーザは皆またこの停滞の時代に戻りたいと思うだろうか。






バイワイヤ


by-wire



飛行機の形態の大きな変革はライト兄弟以来何度かあったが、飛行機に詳しい人だと1970年代にもそういう変革があったということを知っているかもしれない。

飛行機は最初2〜3枚の翼を持っていたが、単葉機が主流になったのが1920年代のことだった。そして1950年代にはプロペラ機からジェット機に進化した。
これはいずれも翼を支える桁やエンジンの工作技術が進歩したために飛行機の形がこういうふうに変わったという変革だった。

1970年代の変革はちょっと性格が違う。

70年代に入ると各国でしきりにカナード翼という翼が付いた試験機がテストされはじめた。 カナード翼というのは飛行機の機首につけられた小さな舵付きの翼のことだ。
これはそれ以前の航空工学の常識からいえば、全く常識はずれの設計だった。

飛行機というものは尾翼で姿勢を安定させている。
重心よりもずっと後ろにある垂直尾翼と水平尾翼が風を切って機体の姿勢を安定させている。
もしも機体の姿勢が崩れると、尾翼が進行方向の線からずれて大きく腹を見せるような格好になる。
そうすると風の抵抗を受けて操縦者が姿勢を立て直そうとしなくても、自動的に進行方向にまっすぐ機首を向けるように姿勢が修正される。

これが飛行機の固有安定性ということで、これがあるから操縦者がしじゅう目を血走らせていなくても飛行機はまっすぐ安定して飛べる。
しかしこの尾翼と同じような小翼を機首につけてしまうと姿勢が乱れた時に、重心よりはるかに前にあるこの小翼の抵抗でますます姿勢が崩れる方向に力が働いてしまう。

だから航空工学的には機首に小翼をつけるのは百害あって一利無しというのが常識だった。

ところが70年代にこういうカナード翼をつけた飛行機がテストされはじめたのには理由がある。
この時代はコンピュータが急速に高性能化、小型化しはじめた時期と重なるという点が関係してくる。

コンピュータは実験室の中央にでんと鎮座して、ぐるぐる回転する1インチテープ付きの巨大なロッカーボックスのようなスタイルから、アタッシュケース程度の箱におさまるような小型のマシンに変わりはじめていた。

このコンピュータを何に使うかということが問題だったが、当時の軍事技術の開発者はこれで飛行機の操縦系統をコントロールすれば、従来とは全く違う機動力を持った飛行機ができるのではないかと考えた。

飛行機の操縦というのは実は非常に微妙な感覚を修得しないといけない。
急に大きく舵を切ると、姿勢が崩れてしまい元の姿勢に戻せなくなる。あとは失速してしまいキリモミ状態で墜落するという末路が待っている。
なので操縦者はどの程度まで無茶ができるのかということを機種ごとに体験的に修得しないといけない。
特に戦闘機などの軍用機は、どこまでぎりぎりの操舵ができるかというのが操縦者の技量になってくる。無茶をしなければ敵に有利な位置を取られ射撃の的になってしまうし、無茶をすれば敵に撃たれる前にコントロールを失って墜落してしまう。

第1次大戦で飛行機が初めて戦争に使われて、空の上でレンガの投げ合いをしていた時代から朝鮮半島の上空でジェット機同士で音速の遭遇戦をやっていた時代まで、こういう操縦技量というのは全くパイロットの経験と勘に任されていた。

しかしこれをコンピュータでコントロールすればどうなるだろうか。

この時代以前の飛行機は操縦席にある操縦桿と3つの舵は針金で直結されていた。
操縦桿を引けば針金が引っ張られて、その針金に繋がった舵が上下や左右に動くという、ライト兄弟時代と基本的には全く変わっていない構造だったということだ。

ところがコンピュータを入れることでこの針金が廃止されてしまった。

操縦桿は針金を引っ張るのではなく、テレビゲームについてくるジョイスティックとかコントローラのようなただのスイッチになってしまった。
このジョイスティックを動かすと、その動かした量、強さをコンピュータが感知してそれに見合った量だけ舵をモーターで動かすという構造に変わった。

この構造は飛行機の操縦技術に革命をもたらした。


全くの初心者が機体がひっくり返るような無茶な操舵をしても、自動的にリミットでコンピュータが止めてくれるので上級者でなくても機体の性能ぎりぎりの運動ができるということになる。
また急降下中でも舵が重くなって動かないということもない。
どんな姿勢からも望み通りの運動が可能になる。


それで最初に触れたカナード翼の登場となる。
コンピュータのおかげで無茶をしてもコンピュータが姿勢を制御してくれるので機体がひっくり返ったりしない。ならばカナード翼という空気力学的にはリスクが大きい翼をつけても機体はひっくり返らないということだ。

そうであるならばこの無茶な翼を試してみる価値が出てくる。
飛行機の舵は尾翼の水平垂直の舵と、主翼についているローリング用の舵しか今までなかったが、機首にも舵をつけると、今までよりもずっと激しい運動が可能になる。
それは当然で、何かおおきな物を廻す時に一か所だけ持って廻すよりも2か所、両端を持って上下に力を加えた方が迅速に回転させることができる。
それだけでなく尾翼でもカナード翼でも下げ舵を取ると機体の姿勢を変えずに機体が沈んだり、逆に両方上げ舵を取るとそのままの姿勢で機体が浮き上がったりという、従来の飛行機には不可能だった運動も可能になる。


これはコンピュータ技術が飛行機の形態を変えたという実例だ。
この技術は米国空軍のF16戦闘機から始まって、今では軍用機は勿論、成田や羽田から発着する民間機の大部分でも採用されている。

こういうコンピュータで舵をコントロールする技術をフライバイワイヤという。
電線で飛んでいるという意味だ。


また長々と前置きを書いてしまったが、ここでは何を書きたかったかというと世間の「ITセクター」という言葉の捕らえ所がちょっとずれていないかということだった。

ITというとすぐに高速のインターネット通信とか、ソフトバンク、ライブドアのようなIPコンテンツ産業とかそういうところばかりが注目されて、それが「ITセクター」の代表みたいに考えている人がいまだに多い気がする。

しかしそういうのは実は有っても無くてもどっちでも良いような「ITセクター」で、私が考えるもっと「重要なITセクター」というのはこういう飛行機のフライバイワイヤのような、既に重厚長大産業にすら影響を与えはじめているような基幹技術を持つ産業のことだ。

このバイワイヤという考え方がまた今重要になってきている。
かつては飛行機の形を変えたこの技術が今、自動車を変えようとしている。


自動車はカーナビを装備して一部電子化が進んでいる部分があるが、全体的にはかつての飛行機がそうであったように、基本的にT型フォードの時代から構造が変わっていなかった。
勿論エンジンにはターボや噴射燃料装置を装備したりとか細かいメカニック的な技術では進歩しているが、ハンドルはギヤで前輪に繋がっているし、ブレーキはクランクや針金でブレーキパッドと繋がっているという意味では、T型フォードの時代から全く進歩していなかった。

しかしここに今コンピュータが入りはじめている。

するとどういうことができるかというと、ハンドルもブレーキもギヤシフトもコンピュータが制御して人間は右に行きたいか、左に行きたいか、スピードを上げたいか下げたいかというおおまかな指示を出すだけでいいということになる。

かつての飛行機の操縦桿がゲームパッドみたいになってしまったのと同じことが、自動車のハンドルやブレーキに起きている。

このメリットはフライバイワイヤと全く同じで、急ハンドルや急ブレーキで車体の姿勢が崩れかけるとコンピュータが自動的に判断して、カウンターハンドルを当てるとかABSのようにブレーキを微妙にコントロールするとかの操作をコンピュータがやってくれる。
誰でも名ドライバーになれるということだ。

また高速道路で前の車に近づき過ぎると、自動的にブレーキがかかって安全を守るということもできる。

こういうブレーキをかつての飛行機の例にならって「ブレーキバイワイヤ」と呼ぶのだそうだ。

車線から外れそうになると、自動的にハンドルを操作して路肩に衝突するのを防いでくれるような安全対策も可能だ。(だから居眠り運転をしても大丈夫だということにはならないだろうが)


オートマチック車はかつてはメカニック的にギヤをコントロールしていたので、オートマ車の燃費はマニュアル車に比べると悪いというのが常識だったが、今ではギヤコントロールもコンピュータがモーター駆動でやるので下手なマニュアルドライバーよりも燃費はかえって良くなっている。

今やブレーキもハンドルもギヤもエンジンもコンピュータがコントロールするという車が出回りはじめている。
そのために今の車には小型モーターが100個以上も搭載されている。
車一台でだ。
こういう小型モーター(中には硬貨ほどの大きさの超小型モーターも使われている)と組み込みコンピュータの技術がなければ車も作れない時代になってきた。


このバイワイヤ化は実は自動車メーカーにとってもメリットがある。

かつてのギヤ式ハンドルやクランク式ブレーキはメカニズムをシャーシーのどの部分にどう配置するかという設計が難しかった。メカだからどこでも自由に取り付けられるというわけにはいかないし、車の内部というのは実は意外に余分なスペースがないということも設計を難しくしている。

ところがコンピュータとモーターだと設計は学校出たての新米でも可能だということになる。
スイッチであるハンドルやブレーキとコンピュータは電線で結ばれているので、コンピュータはどこにでも好きなところに配置できる。繋いでいる電線も特に力学的制約がないので、好きな経路を這わせることができる。モーターまでの経路も電線なので難しさはない。

つまり職人的な技能が必要だった車のメカの設計は、コンピュータ屋さんがマシンを積み上げて結線するような無造作な設計でも問題が無くなる。
そうすると車種ごとに微妙な配置をしていたメカ部分が統一規格のコンポーネントになるので、車の部品の統一化が可能になる。

つまり設計開発コストも部品調達コストも大幅に引き下げることが可能になるということだ。


今、車のバイワイヤ化が急速に進みはじめており、そのためにパソコンのハードディスク用のモーターメーカーでは2〜3年の内にディスク用モーターと自動車用小型モーターの売り上げが逆転しそうだという見通しも出ている。
またこういう組み込み型のコンピュータやそのOSなどの開発も急速に進んでいる。
処理できる情報も飛躍的に増えているので、先の「自動でカウンターハンドルを当てる」というような高度な処理も可能になってきた。
次世代の自動車と見られている燃料電池車は実は様々な問題が有って、すぐには商業ベースで普及しそうにはない。これはガソリンが無くなる頃に間に合うかどうかという先の技術だ。

ところがこのバイワイヤはもう2〜3年で目立った成果が出てくるというような近い話だ。


個人的な思いかもしれないが、「IT企業」が球団を買ったの買わないので大騒ぎするというのはちょっと異常だと思う。

しかもその騒がれている「IT企業」が私が思っているIT企業とはかなり違う業種だったりするので最近どうも、この「IT企業」「ITセクター」という言葉は注意して使わないといけないなと思いはじめている。

そういう言葉を使う人がいたら
「それは具体的にはどこの企業を想定して言っていますか?」
と確認することにしている。

ITセクターというのは実はこういう底堅い、そしてあらゆる産業に影響をもたらすような技術産業こそ重要でトレースする価値があるのではないかという思いがある。


もう楽天やライブドアはどうでも良いじゃないですか?




2004年11月22日














Previous Topへ Next





site statistics
青木さやか