家電再編と感触を伝えるロボット

 
家電量販店の世界でも業界再編の波が押し寄せている。

画像


1.ネット通販に押される家電量販店

7月13日、家電量販最大手のヤマダ電機は業界7位のベスト電器が年内に実施する第三者割当増資を引き受け、子会社化すると発表した。株式の取得額は約121億円で、引き受け実施後は発行済み株式の51.16%を保有する筆頭株主となる。

それに先立つ2ヶ月前の5月11日には、業界5位のビックカメラが、業界6位のコジマを買収すると発表している。ビッグカメラは、コジマが6月26日に実施する第三者割当増資をビックカメラが引き受け、コジマ発行済み株式の50.06%を取得する。出資総額は約141億円。

2012年7月の家電量販店の売り上げ高をみると、ベスト電器を子会社化したヤマダ電機の合計売上高は2兆円を超えていて、業界2位でのビックカメラ・コジマ連合の約1兆円を大きく引き離している。

また、3位以下の家電量販店とて、既にいくつかの会社が統合して出来たもの。3位のエディオンは2001年に名古屋のエイデンと広島のデオデオが統合して誕生したもので、大阪のミドリ電化や東京の石丸電気を傘下に収めているし、4位のケーズホールディングスも2004年に愛知のギガスや大阪の八千代ムセンを傘下に収めるなどして急拡大している。

流通業界に詳しいプリモリサーチジャパン代表の鈴木孝之氏は、今後は、大手の中で上位企業による下位企業の買収が行われ、その後は、大手の勝ち組同士、異業種との再編が出てくると予測している。

その理由として鈴木氏は、アマゾンなどインターネット通販の脅威を挙げる。何でも、アメリカでは、量販店で商品を見て価格の安いネットで買う消費者が増えていて、量販店は"ショーウインドー化"しているのだという。従って、量販店がネットの価格に対抗するために、さらに規模を大きくする必要があるということらしい。

まぁ、アメリカに限らず、 量販店で商品を見て、実際にはネットで買うというのは、日本でも結構やっているのではないかと思うのだけれど、それでも、良く知った商品の買い替えならいざ知らず、実物を全く見ずにネットだけをみて通販で買うという人は、そんなにいないのではないかと思う。

何故なら、やはり、実際触って、重さや大きさ、手触りや操作性などの見ただけでは分からない感覚を確かめたいと思うであろうから。

例えば、服なんかを通販で買うときなんか、デザインがいいからと買ったはいいけれど、イザ実物が届いてみると、生地が薄くてがっかりしたとか、見た目高級そうだから、ネット注文してみたら、実物は安物だったとかいう話は割とよくある話。

また、聞いたことないメーカだけで、無茶苦茶安いからというだけで、ノートPCを買ってみたら、ファンの音はうるさい上に、熱暴走もよくあったりするものだったりしたら、それこそ安物買いの銭失い。

これらは、要するに、視覚情報以外の触覚情報、聴覚情報も得た上で選ばないとまだ不十分であるということを意味している。(流石に家電に味覚、臭覚情報はあまり要らないと思われるけれど…)

その意味では、家電量販店のように、たとえ、"ショーウインドー化"してしまっているとしても、店頭に実物があり、直接触れられるというのは、その分は少なくとも顧客ニーズに応えられている部分があると言える。

だけど、最近の科学技術は、この辺りの商品とその手触りについての問題をも解決しようとしている。

画像



2.テレイグジスタンス技術を支える「触原色原理」

7月11日、科学技術振興機構(JST)と慶應大学大学院メディアデザイン研究科の舘暲・特任教授らの研究グループは、遠隔地に細やかな触感や存在感を伝えられる「テレイグジスタンス」技術を用いた、ヘッドマウントディスプレイ(HMD)やセンサで構成された利用者用のコックピット及び、アバターロボット(スレーブ)からなるシステム「(改良型)TELESAR V」の開発に成功したと発表している。

「テレイグジスタンス」技術とは、1984年に舘教授が提唱した概念で、遠隔地にある物や人があたかも近くにあるかのように感じながら、操作などをリアルタイムに行う環境を構築する技術のこと。この技術を使えば、自分がいる空間とは別の空間を高い臨場感を持って体験し、同時に、自分の存在を伝えることが出来る。

システムは、まず、人と同じような指と手、腕を持つロボットの指に各種センサーを取り付け、そのセンサーが、触った物の圧力、振動、温度などを感知して、オペレータの手袋に情報を送り、オペレータは、遠隔ロボットのセンサ情報を受けながら、ロボットを操縦する構成になっている。

ただ、一言でロボットからの情報を受け取り、遠隔操作する、といってもそう簡単なことじゃない。

テレイグジスタンス技術は、個々に見れば、バーチャルリアリティ技術、ロボット技術、通信技術などが高度に統合できて始めて可能になる技術。

特に、人の細かい動作を正確にロボットで再現し、かつ人が実際にモノなどを触った時の感触といった微妙な情報をロボットから正確に電送できなければ、このシステムは成り立たない。

そのためには、遠隔操作するロボットには、人の視覚・聴覚・触覚などの感覚と運動の伝達を高い精度で同期させる必要があるのだけれど、これまでは視覚や聴覚に対して、触覚の伝送はまだまだだった。

今回研究グループは、こうした細かい触覚情報を伝達するために、「触原色原理」という理論を提唱・採用している。

「触原色原理」とは、電気刺激による自然な皮膚感覚を提示するために考え出された理論。

人間の皮膚の下には、数種類の触覚受容器があるのだけれど、モノを触った時に得られる"感触"は、それら触覚受容器各々が受けた刺激を神経に伝えるのだけれど、逆にいえば、全ての"感触"は、個別の触覚受容器が捉えた情報の組み合わせで表わされることを意味している。

そこで、これらの触覚受容器を個別かつ任意に電気刺激することができれば、疑似的に全ての触覚情報を伝達できるというのがこの「触原色原理」。

「触原色原理」という言葉は、全ての色が赤・青・緑の色の三原色の組み合わせから作ることができるのと同じように、全ての感触も個別の触覚受容器の刺激の組み合わせから作ることができることから名付けられた。

今回の研究では、人間の触覚の中でも特に、皮膚感覚を人工的に作り出す方法が用いられている。




3.テレイグジスタンスが世界を変える

人間の皮膚感覚に応答する触覚受容器は、機械受容器と呼ばれているのだけれど、それは4つの種類がある。まず、皮膚の一番浅いところにあるのがマイスナー小体(RA)と呼ばれる器官で、長さ80~150μm、直径20~40μmで、指尖腹部に10~24個/m㎡の高い密度で分布している。

その下にあるのが、メルケル細胞(SAI)と呼ばれる細胞器官で、直径:9~16μm。毛のあるなしに関わらず、皮膚の真皮に広く存在する。

その下にあるのが、ルフィニ終末(SAII)と呼ばれる全長0.5~2mmの器官と、パチニ小体(PC)と呼ばれる2500×750μmの卵型の器官で、共に皮下組織に存在する。

これらの機械受容器は、それぞれ感応する刺激の種類が違っていて、マイスナー小体(RA)は、受容野は狭いものの、20~70Hzの低周波数の刺激に反応し、メルケル細胞(SAI)は点状の狭い受容野ながら圧力に感応する。そして、ルフィニ終末(SAII)は広い受容野を持ち、伸び縮みに感応し、パチニ小体(PC)は同じく、広い受容野を持ち、100~300Hzの高周波数の刺激に反応する。

つまり、マイスナー小体(RA)は低周波振動を感知して、速度センサーとして働き、メルケル細胞(SAI)は圧力センサーの役割を持ち、ルフィニ終末(SAII)は伸び縮みセンサー、パチニ小体(PC)は振動・加速度検知センサーとして働いているとされる。

中でも面白いのは、マイスナー小体(RA)やパチニ小体(PC)が、モノを触った瞬間を検知できるのに対して、メルケル細胞(SAI)の圧覚については刺激の開始や終了が不明確で、単に圧力を受けていることしか感知できないこと。

このことから、人がモノを"触った"という感覚は、実は、マイスナー小体(RA)やパチニ小体(PC)が検知する「触った瞬間」の信号(周波数センサーだから)と、メルケル細胞(SAI)からの送られる「触り続けている」という信号の合成によって成り立っていると考えられている。

画像


通常、人工触覚の生成には、これら機械受容器を個別に刺激する必要があるのだけれど、従来は、磁石や超音波、空気吸引などを使って、機械受容器のある深さの皮膚組織を歪ませたり、個々の機械受容器が応答する周波数で機械振動させてやることで実現していた。

だけど、この方法では、歪みと振動で別の装置が必要になり、薄くしにくかったり、可動部ができることで壊れることなどの欠点があった。

そこで、考えられたのが、直接末梢神経を電気刺激してやる方法で、個々の機械受容器に対応する末梢神経を皮膚の表面から選択的に電気刺激することで実現する方法。「触原色原理」によれば、全ての触覚は、個々の機械受容器からの電気信号の組み合わせからなることになっているから、それぞれの機械受容器からの電気信号に相当する電気信号を直接末梢神経に送ってやれば、同様の触覚が得られることになる。

今回発表された、テレイグジスタンス技術で、オペレーターが装着しているグローブを見る限りでは、どうやら、経皮電気刺激による疑似触覚合成をしているのではないかと思われる。実に凄い技術が開発されたもの。

さて、この技術がもし、家電量販店で使われたりすると、ちょっと面白いかもしれない。例えば、これまで店頭に陳列していた家電を全部どこかの倉庫に集めておいて、店頭に来た人は、グローブとモニタ付ヘルメットを被って、見たい商品を触ったり、操作したりする。モニタ越しではあるけれど、視覚・聴覚情報は元より、触覚情報も一緒に得られるから、店頭に商品を並べる必要もない。それこそ在庫を置いておくスペースだけあればいい。極端な話、コンビニと提携して、コンビニから注文を出すことがって出来るかもしれない。

まぁ、同じやり方はネット通販でもできるというか、ネット通販のほうが向いている技術のような気がしないでもないけれど、お客さんにグローブを提供する手間とコストを考えると、ネット通販とコンビニの組み合わせのほうがまだいいかもしれない。

もっとも、この技術は、舘教授が述べているように、人が入れないけれど、人でないと出来ない仕事に適していると思われ、原子炉内とか、宇宙ステーションなんかの修理作業などで使われるのではないかと思う。

意外と、攻殻機動隊の世界は目の前に迫っているのかもしれない。

画像

Twitter
画像 ←人気ブログランキングへ

この記事へのコメント

  • sdi

    >実物を全く見ずにネットだけをみて通販で買うという人は、そんなにいないのではないかと思う。
    この場合、量販店の店員の対応が鍵になります。店員が大した商品知識ももたない場合、客はほんとに「陳列」商品だけ見て帰ってしまいます。売り場の客に対して「陳列」している商品の特性や魅力、良し悪しをいかに上手くわかりやすく説明し、客の欲する商品が何か客自身に気づかせる店員がいると家に帰ってネットで買わずその場にかってしまったりします(以上、自分の体験(笑))。ヤマダ、ビックともに規模の拡大に爆走していますが、逆に言えばそれ以外の方策を持たない現われともいえます。上記表に注目すべきは非上場のヨドバシカメラの他社を圧する経常利益率です。
    いかに付加価値をつけて売るか。それは商品の付加価値だけではありません。「店員の付加価値」込みなのです。ちなみに私の体験談はヨドバシカメラです。
    2015年08月10日 15:25
  • ちび・むぎ・みみ・はな

    こんなすごい技術があるのに, 何で福島原発
    は米国ロボットの世話にならねばならないのか.
    空間のバーチャル化はSFだけで良いと思う.
    確かに素晴らしい技術だ, しかし,
    現実から離れた時, 我々は全てを失う.
    竹島や尖閣諸島, 北方領土のように.
    2015年08月10日 15:25

この記事へのトラックバック