本ブログには、以下のカテゴリが設定されています。
・日記
・ロボット
・スポーツ
カテゴリごとの記事をご覧になりたい場合は、各記事に設定されているカテゴリのリンクをクリックすると、自動的にブログ記事がフィルターされ、すべてのブログ記事の中から、該当するブログのみを抽出して表示してくれます。
カテゴリのフィルターを解除するには、右上にある「すべての記事を表示」をクリックします。
「ロボット」には以下のカテゴリがあります。
佐川急便を中核とするSGホールディングスグループの佐川グローバルロジスティクス株式会社(SGL)は、埼玉県蓮田にオープンする蓮田営業所において、商品棚ごと運ぶ自動搬送ロボット「EVE500」を32台導入し、自動化による省力化と働き方改革を進めることを発表した。
「EVE500」は中国のGEEK+(ギークプラス)が開発している自動搬送ロボットで、最大500kgまでの棚を持ち上げて移動できる。フル充電まで約30分、10時間稼働が目安だ。今回、蓮田営業所の倉庫には本体が32台、専用棚が574台が導入された。販売元はフジテックス。
https://robotstart.info/2019/11/29/sgl-eve500.html
ロボットがちょうどいい力加減でものをつかむことは、まだ難しい。
「現実の物体や周辺環境との接触情報を双方向で伝送し、力触覚を再現する」技術、それが『リアルハプティクス(Real-Haptics)』。
豊田通商グループの株式会社ネクスティ エレクトロニクスと、同グループ会社のネクスティシステムデザイン株式会社(NSD)は力触覚再生モジュールを通してリアルハプティクスを使ったロボットの共同開発、技術支援を行っている。
同社は、今回の共同開発により、クラウド上にある仮想動作を実際のロボットにインストールすることで、ロボットが対象物の触覚を感じながら力加減をする動作ができるようになったと述べている。
https://robotstart.info/2019/11/30/abccore.html
スマートロボット「Ebo」ができることは多岐に渡ります。アプリで動きをコントロールしたり、搭載されている1080p HDカメラで、リアルタイムに猫ちゃんの様子を確認することもできます。写真を撮ってSNSに投稿することだってできちゃいますよ。
それに、具合が悪そうにしているときも、録画しておけばその様子を獣医さんに見てもらうこともできますね。ちなみに、ライブストリーム映像は自分のスマホのローカルに保存することができます。クラウドに自動保存されるわけではないので、プライバシーも守れます。
ホイール付きで移動も楽々。ダンスだってできちゃいます。しかもポインターも出せるので、運動不足気味の猫ちゃんをエクササイズさせることも可能。顔認識、空間認識機能搭載なので、猫ちゃんがどこに行ったのかもトラッキングできますし、障害物を避けて移動することもできます。猫ちゃんのおもちゃなので、使われているマテリアルも安全なものばかり。安心して遊ばせられますね。
https://www.gizmodo.jp/2019/12/203309.html
このリアルな人型ロボットを製作しているのはロシアの自律型サービスロボットメーカーのPromobot。その姿はまるで本当に生きている人間のようです。この人型ロボット「Android Robo-C」の顔面は誰にでも似せることができ、同社はこれを世界初のアンドロイドだといいます。
このPromobotは、人間の外見をコピーするだけではなく、ビジネス環境に統合できる世界初の人型ロボットです。Robo-C担当者によると「完全に擬人化されたマシン」であり、人間の表情を細かくコピーします。目、眉、唇、その他の「筋肉」を動かし、会話を自然に続けて、相手の質問に答えることができます。
特定の人物のよく使用するフレーズに基づいて言語モデルを構築することが可能。「オリジナル」の頻繁な表現を独自に分析し、特定人物の会話の文脈をコピーし、コミュニケーションを図ります。
同社が開発した技術と特許取得済みのデザインには、600を超える表情があります。このアンドロイドは、人間の外見をほぼ完全に近い形で模倣することができます。独自のコンポーネントベースを作成し、リアルな人工皮膚を取り付けています。
https://viva-drone.com/android-robo-c/
Disney Researchの研究チームは、人からロボットへモノを手渡すと、自然な動作で受け取れるシステムを発表した。人がフェイントしても対応する。
人とロボットが双方向へオブジェクトを自然に手渡すシステムを提案。高速モーションキャプチャーとリアルタイムの軌道生成により、違和感のないタイミングでの手渡しが可能になる。
プロトタイプは、ロボットアームをベースに構築。手渡しに使われるオブジェクトは、外径30センチ、内径18センチ、厚さ4.5センチのリング型で、モーションキャプチャー用のマーカーを装備する。
ロボットは、相手の手渡す動きを検出すると、予想される手渡し位置に向かって移動し受け取る。腕の持って行き方は、ベジエ曲線を用いた滑らかな曲線を描く。また、手渡し位置が合っていればそのまま、人間側がフェイントした場合は、さらに追跡して手渡し位置を修正する。
デモ動画を見ると、高速に反応しリングを受け取る様子を確認できる。数パターンのフェイントにもその場で対応し、軌道を変更して取りに行く。
https://www.itmedia.co.jp/news/articles/1911/29/news033.html
米マサチューセッツ工科大学(MIT)の研究チームは、植物が成長して茎を伸ばしていく様子をヒントに、柔軟性と剛性を兼ね備えた“成長するロボット”を開発した。チェーンのような体を使って狭いところをくねくねと進んだり、物を運んだり、ねじを締め付けることもできる。植物と違って収縮も可能だ。研究成果は、「知能ロボットとシステムに関する国際会議(IROS)2019」で発表された。
このロボットは、Harry Asada(浅田春比古)教授の研究室から生まれた。従来のように単に柔らかい素材で作製したロボットでは、グリッパーやカメラのような重い部品を支えることが難しい。
「私たちのソリューションの特徴は、柔らかい材料を使うのではなく、剛性のある材料を上手に使うところにあります」と、Asada教授は説明する。それは急カーブを描いたり、ねじったりできるほど柔軟でありながら、重いものを支えたり、部品にトルクを加えられるほどの剛性も備えたロボットだ。
研究チームは、ギアとモーターを組み合わせたギアボックスと可動性のパーツを作製し、ロボットで“伸びる芽”を表現した。パーツは3Dプリント製のプラスチック素材で、曲がりやすいように自転車のチェーンのようにつながっている。
「作製したロボットは実際の植物とはかなり異なっていますが、概念上はほぼ同じ機能を備えています」と、Asada教授。ロボットは、植物の成長を特徴づける3つの重要な機能要件を満たしている。第1に、ロボットはパーツを成長点まで輸送できる。第2に、ロボットはパーツを剛体構造に変換できる。そして第3に、所望の方向に伸びるように成長点を操作できる
https://fabcross.jp/news/2019/20191127_growing-robot.html
イタリアのVolta社が開発した、自宅で簡単に導入できる小型ロボット芝刈り機「Mora」。最先端の自動操縦技術を搭載し、手軽に庭を手入れしてくれる頼もしいロボットだ。
現在公式サイトにて、1299.95ドル(約142,000円)にて販売されている。
テスラにも使われている最新の自動操縦装置を備えたCPUコアを採用した「Mora」。
AIとカメラが自動で芝の状態を認識し、庭を走らせるだけで芝を手入れしてくれる。
障害物や地形を正確に把握しつつ避けながら走行でき、コンパクトサイズなので小さな庭でも手軽に導入可能だ。四季を通して4年以上に渡りテスト運用された安全な設計となっている。
https://bouncy.news/53622
オレゴン州立大学にあるアジリティー・ロボティクス社が開発している、脚だけのロボット「キャシー」。ダチョウの脚みたいな姿でガッチャンガッチャンと歩くのですが、前回は左右独立したホバーシューズに乗ることができるようになるなど、日々進化しています。その「キャシー」が、今度はボールひとつですがジャグリングをするようになりました。まずはその姿をごらんください。
動画の説明文によりますと、実は「キャシー」はジャグリングという正確なタスクと、自身のバランスを取るというふたつのタスクを同時にこなしているのだそうです。
さらにテニスプレイヤーがサーブ前にポンポンする、ラケッティングも上手になった「キャシー」。ラケットのほかにも木の板や3D印刷されたプラ製ブロックなどを使い、モーションキャプチャー・システムを使ってボールの位置を追跡しながら落とさないようジャグリングをします。
https://www.gizmodo.jp/2019/11/cassie-can-now-juggle-balls.html
人間の動きを瞬時にトレース。遠隔操作ロボット「リトル・エルメス」
研究者による英断がロボットを少しでも簡素化する
「リトル・エルメス」開発におけるMITの決断はなかなか潔いもので、人間に匹敵するモーターと意思決定のスキルを備えた完全自律型ロボットを構築することは、まだまだ課題が多すぎる! ということでそこはバッサリ切り捨て、人間の判断力に委ねて遠隔操作し、災害時の偵察や救助をするロボットにシフトしている点です。無い物ねだりをせず、まずは持っている潜在能力を最大限に引き出す、ということなんですね。それに、人間への物理的なフィードバックをしないので、そのための機材もシステム開発も不要。お互い身軽になれるのです。
その代わり「リトル・エルメス」には、質量を最小化するための剛性を持つ軽量フレームの中に、衝撃に耐えるように設計された、高トルクを生成できるカスタム・アクチュエイターや、3軸の接触力センサー、耐衝撃性を備えた軽量の足センサーなど、脚の運動性能を高レベルで作動さることを特化したメカニズムが詰め込まれています。
操作する人間側の装備
人間側には胴体の動きを追跡するため、エクストリーム系スポーツで着用するプロテクターを流用し、支柱を伸ばして空中に固定。また両足にも足の動きを追跡する、可動部の付いた支柱を付け、それらはアクチュエーターに接続されます。
さらには人間のバランスを瞬時にフィードバックさせるインターフェイス(という名のお立ち台型センサー)も独自開発され、見た目度外視の簡易的なシステムでありながら、ここが映画『レディ・プレイヤー1』の主人公がアバターを操っていた場所となるのです。
https://www.gizmodo.jp/2019/11/little-hermes.html
MITが開発している4本足ロボット「Mini Cheetah」の新たな動画が公開されました。Mini Cheetahは中型犬サイズの電動ロボットで、関節を自在に動かして俊敏な動きをみせます。2月に初めて披露された時は、4本足ロボットとして初めて「バク宙」すなわち後方宙返りができることが注目されました。
新たに公開された動画では9匹のMini Cheetahロボットが登場し、ラジコン操作で一斉にバク宙したり、サッカーボールを奪いあったりと、なにやら楽しそうに戯れながら、その能力を示しています。紅葉が散る芝生の上を時速9kmでジャキジャキとけたたましい音を立てて歩くロボットの姿は、不気味ながらもどこかユーモラスでもあります。
このロボットの特徴は堅牢性と直しやすさにあります。堅牢な部品を使い約9kgと軽く仕上げることで、バク宙のような軽快な動きを実現。4本の足にはそれぞれ、3つの電動モーターを搭載していますが、これらのモーターは市販品を活用していて、簡単に新品に交換可能としています。
https://japanese.engadget.com/2019/11/10/mit-4-mini-cheetah-9/
サカナクション・山口一郎が解き明かす、ダビンチ・ミステリー!
万能の天才でありながら、人類史上もっとも謎多き人物とも言われる、レオナルド・ダビンチ。2019年は没後500年にあたります。パリのルーブル美術館では10月よりこれまでにない規模でダビンチ展が開催されるなど、世界中でダビンチブームが巻き起こっています。
NHKスペシャルでは、ナビゲーターの山口一郎さんがルーブル美術館の「ダビンチ展」へ。2本シリーズで天才の謎を解き明かします。
NHKスペシャル ナビゲーター・山口一郎さん(サカナクション) コメント
なぜこんなにモナリザに魅了されるのか。なぜこんなにダビンチの思考に心が動かされるのか。そこにはダビンチがもがき苦しんだ「質量」のようなものが宿っているからだと思います。苦闘の末に つかみとった世界は、いつも新しい。令和の時代に、ダビンチがどんなメッセージを伝えてくれるのか、僕も楽しみです。
【NHKスペシャル シリーズ ダビンチ・ミステリー】
第1集「幻の名画を探せ~最新科学で真実に迫る~」
11月10日(日)総合後9:00
11月30日(土)BS4K後5:00(特別版)
第1集は、絵画の内部を透視し、描かれたプロセスを再現できる最先端の科学技術で、モナリザをはじめとするダビンチ絵画に秘められた数々の秘密に迫る。実は、ダビンチが深く関与し「本物」だと考えられる絵画は、わずか14点しか現存が確認されていない。あらゆる芸術作品の中で、ダビンチの絵画は特別に貴重なものなのだ。そのため、「ひょっとすると、まだ見ぬダビンチ絵画がこの世界のどこかに隠れているのではないか」と人々は取りつかれたように、まだ見ぬダビンチの絵画を探し続けてきた。今回、特別の許可を得て、ルーブル美術館を始めとする世界最高の専門家たちが極秘裏に行った、ダビンチ作の可能性が高いとされる一枚の未確認絵画の徹底調査プロジェクトに3年間にわたって密着。そこから、驚くべきことが次々に解明された。果たして、私たちは「ダビンチの新作発見」を目の当たりにすることができるのか。
美術専門家、修復技術者、科学技術者等によりダビンチの絵の技法に迫っています。
1ミリほどの筆で点で描いていたり、髪の毛ほどの薄い層を15層にもわたり重ねて描いていたりで驚くべき技法です。1層塗って乾くのに数週間かかるので完成までに驚くべき時間がかかります。
そのため作品は14点しかなく完成形のものは数点しかないそうです。
第2集「 “万能の天才”の謎〜最新AIが明かす実像〜」
11月17日(日)総合後9:00
11月30日(土)BS4K後5:50(特別版)
第2集は、希代の芸術家でありながら、医学、生物学、物理学、工学…あらゆる学問に精通していた「万能の天才」の秘密に挑む。芸術と科学、二つの巨大な領域をこれほど自在に渡り歩いた人物は、一体、何者なのか? 番組では、ダビンチが思考の過程を記した膨大な“手稿(codex)”を入手。世界で初めてAI解析を行い、いわばダビンチの「知識のネットワーク」を再現する。ビル・ゲイツ、スティーブ・ジョブズら、現代を代表する「天才」たちの憧れであり続けるダビンチ。右脳的世界と左脳的世界を結びつけ、圧倒的な成果を生み出したその人物像を通して、人間の持つ可能性に迫る。
5600ページ、76万語に上る手稿をAIで分析したそうです。
解剖しただけではわからない心臓の弁の開閉をする血流の渦の解析、心臓外科医も驚く精密な心臓のスケッチ。
謎の地図と呼ばれ、航空写真で見られるような街の地図を独特な測量機を用い作成。航空写真とぴたりと一致するそうです。
ダビンチアカデミーと呼ばれる知識人(建築家、数学者など)の集団があったということです。
水へのこだわりが強いこともわかりました。代表作の絵画には必ず水が描かれています。
ウィトルウィウス的人体図についても初めて知りました。驚くべき考察です。
CNN 10の今日の特別版(2019/11/7)は、ドライバーレス車の展望に焦点を当てています。開発者とサポーターは、人間のドライバーのいない未来をどのように構想していますか?
自動運転車が実用化された未来の世界を描いています。
NoMaps2019にて開催された2度目の自動運転。この実験は、NTT、NTTデータ、群馬大学の3者が連携して行なうもので、トヨタ自動車製「アルファード」をベースにした実験車両2台を使用し、札幌市内約4キロの一般道を使って行なわれた。
実際の乗車時間は20分程度で、その間のハンドル操作や加減速は主としてコンピューターが担当する。ただし、車線変更や歩行者・対向車のために停止・加速などの判断が必要な場合は乗車員がタッチパネルを通じて判断を行ない、状況に応じて手動で運転する。いわゆるレベル2の自動運転を体験することができた。
取材では走行実験に先立ち、群馬大学の研究・産学連携推進機構「次世代モビリティ社会実装研究センター」の副センター長 小木津 武樹氏から実験車両および実験内容について簡単なブリーフィングを受けた。
車体の上部にはレーザーセンサー、GPSおよびカメラが搭載されており、走行中はそれらからリアルタイムで得られた情報と、車に搭載されたコンピューター内のデータベースを照合してその時点での位置を判定し、車体の操作を行なう。搭載コンピューターには、事前の走行によって取得された道路や周囲の建物および標識などの地図データに加え、人間が手動で運転した場合の走行ルートや停止位置などを保存してある。これにより、AI処理だけでは得られない自動走行への高い信頼性の実現を目指している。
小木津氏は「既存の自動車メーカーなどはあらゆるところを自動で走行できるような自動運転車の実現を志向しているが、我々は(自動運転車を使用する)地域や路線を限定することにより高い信頼性を実現し、(完全な)無人運転に早く到達することを目指している」と語った。
https://ascii.jp/elem/000/001/961/1961128/
株式会社スマートロボティクスは、農作業の約半分を占める「収穫」の人手作業軽減に貢献するため、自動野菜収穫ロボットの企画及び設計開発に取り組んでいる。
2018年11月よりソフトウェア設計およびエンドエフェクター開発をスタート、自動台車の上にロボットアームを設置して画像認識によりターゲットの野菜を収穫するという実証実験を行っている。
同社オフィス内での収穫実証実験が完了したため、2019年10月より、ビニールハウスでのAI×自動走行型アームロボット「トマト自動収穫ロボット」の実証実験を開始した。
なお、収穫する作物は、「鈴なりで果実がなり、傷つきやすくサイズが小ぶり」といった性質から、難易度が高いと言われるミニトマトとした。
同社開発の自動野菜収穫ロボットには、カメラや距離センサーが搭載されており、ディープラーニングによる画像認識などの技術を用いて、トマトの認識、サイズ判別や収穫判断をおこなう。ハウス内を自動的に移動しながら、ヘタが取れないようにミニトマトを収穫してカゴに詰めていく。
https://robotstart.info/2019/10/15/smarobo-tomato.html
チューリッヒ工科大学が、スイスの不動産開発業者ERNE AG Holzbauと共同で、建物を産業用のロボット・アームであらかめじめ組み立ててしまう技術の研究をしています(いわゆるプレハブ工法ですね)。たくさんのロボットアームが木材を運び、電ノコなどの工具で削って建物のフレームを組み立てるのです。
チューリッヒ工科大学いわく、この工法は「Spatial Timber Assemblies(空間的な木材組み立て)」と名付けられており、デザインの可能性を押し広げられる...と説明されています。
この手法ではアルゴリズムが強度を計算し、複雑な建築だろうがジェンガのようにバラバラになることなく組み上げられるのです。柱1本ずつを違う角度で取り付けるとか、面倒すぎて人間がやる気にならないデザインでも、ロボットならもくもくと組み立ててくれますからね。
https://www.gizmodo.jp/2019/10/eth-zurich-robot-arm-can.html
OpenAIも、目立ちたがり屋の仲間入りをしたかったようだ。彼らが作ったロボットハンドDactyl(ダクティル、動物の指)も、ルービックキューブを解けるのだ。
イーロン・マスク氏などが支援するこの非営利団体は、ロボットハンドがルービックキューブを片手で解くことを学習した、と発表した。その偉業は、このロボットがとくにキューブ(立方体)を上手に扱うことのデモンストレーションでもある。この前は、このロボットが現実世界での訓練なしで、仮想シミュレーションだけで未知のオブジェクトと対話するところを見た。そして今度のDactylは、その能力をベースに、新しい技を学習した。
https://jp.techcrunch.com/2019/10/16/2019-10-15-watch-openais-human-like-robot-solve-a-rubiks-cube-one-handed/
マッピング、自律移動、Alexa連携、店舗案内など可能性は無限大
株式会社hapi-robo st(ハピロボ)がパーソナルロボット「temi」を11月1日から発売することを発表した。高さ(身長)は100cm。1回の充電で約8時間稼働する。充電ステーションには自律的にドッキングして無線給電(Qi)を行う。
価格は298,000円(税抜)、基本はスタンドアローンで動作するため月額利用料などの設定は発表されなかった。
なお、ハハピロボはロボット及び先端技術の開発及び販売、投資、コンサルティングを展開する企業。H.I.Sグループ、ハウステンボス株式会社の子会社。
temiは米国temi USA inc.(ニューヨーク州)が開発したロボットで世界中で続々と販売が始まっている。日本国内ではハピロボが総代理店として契約した。
世界のどこからでも「自らがあたかもそこにいるように」コミュニケーションできるAIアシスタンス機能を持った自律走行するパーソナルロボットだ。特筆すべき特徴はも基本的にはスタンドアローンで動作し、クラウドが必須ではないこと。人の後ろをついて歩いて自律的にマッピングし、指示したポイントに自律で移動したり、障害物をよけながら人を案内することもできる(現時点では作成・記録できるマップはひとつのみ)。
https://robotstart.info/2019/10/17/hapi-temi-start.html
ミュンヘン工科大学の研究グループが、全身に1万3000個以上のセンサーを備え、感触や温度だけでなく何かがボディの近くにあることさえ感じることが可能なロボット「H-1」を開発しました。これにより、安全性の高い介護ロボットなどが登場することが期待されています。
これまでも、感圧センサーなどで人間の皮膚を再現しようとしたロボットは登場していましたが、「従来のロボットは数百個程度のセンサーで処理能力が限界になってしまう」という問題がありました。このため、皮膚に500万個の受容体を持つ人間の肌のような「感覚」を再現することは不可能だったわけです。
一方、H-1の全身には温度・圧力・加速度・物体の接近を感知するセンサーを備えた1260のセルが配置されており、合計1万3000個以上のセンサーによって人間のような感覚を得ることが可能になっています。
https://gigazine.net/news/20191011-robot-skin-sensory-abilities/
「トビウオ」のように水面から飛び出して滑空するロボットがイギリスで開発された。ウォータージェットを噴出して離水し最長26m滑空することができ、洪水や海洋汚染の監視などを目的とした水のサンプル採集に使えるという。このトビウオロボットの詳細は、ロボット工学ジャーナル『Science Robotics』に掲載されている。
インペリアル・カレッジ・ロンドン(ICL)飛行ロボット研究所の開発したロボットは、重さ僅か160g。可動部は小型ポンプのみで、これを使って周囲から水を取り込み、炭化カルシウム(カーバイド)と反応させてアセチレンガスを生成、燃焼させ、吸い込んだ水を爆発圧力で噴出し、空中へ舞い上がる。飛翔に必要な炭化カルシウムは僅か0.2gだ。
https://fabcross.jp/news/2019/20191011_flying-fish-robot.html
2019年9月29日(日) NHKスペシャルを見ました。
美空ひばりの膨大な音声をAIで分析し、本人の音声を合成し、なおかつ、当時の作詞家を要して新曲を披露するということで興味深く拝見しました。
所々で、5000hz付近だけでなく、7000hz付近の音声も同時に発生しているということでびっくりしました。
新曲の「あれから」の音声を添付します。
以下はNHKのページのコピーです。
戦後の焼土の中でデビューし、長きにわたり、歌謡界のトップを走り続けた絶世のエンターテイナー・美空ひばり。没後30年を迎える今年、私たちは、NHKやレコード会社に残る、膨大な音源、映像を元に、最新のAI技術によって、美空ひばりを現代によみがえらせる試みに挑む。
その歌声は、なぜ日本人の心を揺さぶったのか。これまで天才、オーラという曖昧な言葉でしか表すことができなかった美空ひばりの超人的な歌唱力や表現力を、AIはどう数値化し、どこまで再現できるのか。
AIひばりのために新曲をプロデュースしたのは、生前最後の曲「川の流れのように」を手がけた秋元康氏。そして過去の膨大な映像を解析しながら、歌唱中の目や口の動きを抽出し、4K・3Dホログラム映像で等身大の美空ひばりを出現させる。
AIでよみがえった美空ひばりは、人の心を揺さぶる力まで獲得する事ができるだろうか。
出演 秋元康 天童よしみ 森英恵
ソフトバンク・グループ傘下の米ロボット企業、ボストン・ダイナミクスは、人型ロボット「アトラス」が体操選手のように躍動する新しい動画をyoutube上で公開した。
アトラスは両手をついて見事な倒立前転や両足を開いてジャンプなどをした後、最後はジャンプして体を360度回転させる“大技”を披露。さらに磨きのかかった見事なボディバランスを見せた。
以前は“バク宙”を披露したり、台の上に片足で飛び乗るなど、ボストン・ダイナミクスはアトラスのバージョンがアップするたびに動画を公開してきた。アトラス自体は3Dプリントされたパーツを使用することで、重量約80キログラムと軽量さと強度を両立させ、アクロバティックな動きを可能にしている。
https://newswitch.jp/p/19371
今回の投資は、特に大都市に移動する人がますます増えるこの時代において、お客様に手頃、便利、そしてより持続的な狭小空間ソリューションを提供し家での生活におけるパートナーになりたいという、Ingka Group の方向性に合致するものです。
さらに私たちは、将来顧客のために革新的な会合場所やインスピレーションが得られるリテールエクスペリエンス(小売体験)を作り出すことにつながるかもしれない、よりフレキシブルでレスポンシブ(対応型)な空間を構築する新たな方法を Ori と一緒に探索するという、潜在的なチャンスも見出しています。
一例として、IKEA の新しい Rognan ラインには、ソファー、ベッド、衣装だんすを単一のユニットに統合した製品があり、設置される空間に合わせてスライドしたり変化したりする。
また、壁から出てくるクローゼットや、床から持ち上がって天井へとしまえるベッドやデスクなど、Ori では移動したりスライドしたりするさまざまなロボット家具を取り揃えている。
こういった製品は、壁のボタンで手動操作、あるいは Ori のモバイルアプリで操作できるほか、Google Home や Amazon Echo といったスマートスピーカーと統合すれば音声による操作も可能だ。
https://thebridge.jp/2019/09/alphabets-sidewalk-labs-leads-20-million-round-into-oris-robotic-furniture-for-small-spaces
このロボットはイギリスのクイーンメアリー(ロンドン大学)でロボット工学を専攻するジャン・フラスが制作したもので、同大学が開発したソフトロボット技術が用いられている。
このタコのシリコンゴム製の触手には空気圧バルブがあり、その開閉をコンピューターで制御することで向きを変えられるようになっている。
https://www.excite.co.jp/news/article/Karapaia_52282106/
レゴとサム・バトルさんのコラボには、3000時間(125日!)もかかったそう。というのも、当然ですが、カスタムインターフェイスに加え、ドロイドも楽器を奏でるようにあらかじめプログラムされていたり、エンジニアリングされているわけではないからです。
ちなみに、レゴ・ドロイド・オーケストラのメンバーは、R2-D2が46体、ゴンクが23体、マウスドロイドが26体。ジョン・ウィリアムズの名曲『スター・ウォーズのテーマ』を奏でるために用意された楽器は、鉄琴 8台、バイオリン10本、チェロ 4本、電子キーボード8台、電子ドラム6台、ゴング2台、チャイム2台、フロアドラム2台、シンバル1セット。
https://www.gizmodo.jp/2019/09/lego-droids-play-the-star-wars-orchestra.html
MITが開発したヒモ型ロボットは、脳外科手術の侵襲性を軽減し、動脈瘤や脳卒中の原因になる脳血管の閉塞や損傷の治療を効果的かつ容易にする可能性がある。
MITの研究チームが新たに開発したのは、ロボット工学と血管内手術技法を組み合わせることで、極細ワイヤーを脳血管の複雑な経路を通す際のリスクを軽減する。現在この種の治療は過去の脳手術と比べてはるかに侵襲性が低くなってはいるが、ワイヤーを手作業で通すために著しく熟練した外科医が処置する必要がある。外科医にとっては非常に困難な手術であるだけでなく、患者の脳内の経路を見るために必要なX線に曝されるリスクもある。
MITが開発した新しい「ロボスレッド」(ヒモ型ロボット)は、「ヒドロゲル」と呼ばれる物質の研究から発展して生まれた。ヒドロゲルは成分のほとんどが水からなり、人体内での利用に適している。ヒモ型ロボットの中核をなすのが「ニチロール」と呼ばれる合金で、よく曲がり、反発力があるため、曲げられた時もとの形に戻る性質をもっている
https://jp.techcrunch.com/2019/08/30/2019-08-29-mits-new-thread-like-robots-could-travel-through-blood-vessels-in-the-brain-for-more-effective-surgery/
変形可能な自律ロボットボート「ロボート」の一行が、マサチューセッツ工科大学(MIT)にある水深4フィート(約1.2m)のプールを移動している。これは背泳ぎの練習ではなく、アムステルダムの曲がりくねった運河網を航行する新たな方法で、MITとオランダの都市問題研究機関であるAmsterdam Institute for Advanced Metropolitan Solutions(AMS Institute)が現在進めているプロジェクトの一環だ。
研究者らはロボートにセンサーやGPSモジュール、カメラ、スラスター(補助的な推進装置)、マイクロコントローラーを装備した。ロボートは互いに連結することができ、水上で障害物との衝突を回避しつつ、テトリスのように効率的な形態に組み合わさる。
https://japan.cnet.com/article/35142012/
echshareは、同社の通販サイト「Physical Computing Lab」にて、「DOBOT Robot Vision Kit」の販売を開始した。
同キットは、DOBOT Magician/DOBOT M1で利用できるビジョンシステムだ。
操作には専用ソフトウェアのVision Studioを使用する。提供されるライブラリから機能ブロックを選択し、ブロック線図環境上でシステムを構築/パラメーターを設定することで、ロボットビジョンの処理プロセスを定義し、新しいロボットビジョンシステムを構築可能だ。
https://fabcross.jp/news/2019/20190902_techshare.html
ブラウンのSeries 5を7年ほど使用していたのですが、どうも調子が悪くなったので、フィリップスの9000シリーズ(S9185/12)を購入しました。
音も静かで、剃り心地も申し分なく、剃り残しも全くありません。感動しました。
gacco(大学教授をはじめとした一流の講師陣による本格的な講義を、誰でも無料で受けられるウェブサービス https://gacco.org/about.html)の「初めてのAI」を受講しました。
googleがAIに関するいろいろなツールを供給しており、サポートもしていると知り驚きました。
学習講座もオープンしています。
興味がありましたら試してください。
Cloud Vision
https://gwgtool.page.link/CloudVision
Google が提供する Cloud Vision API の紹介ページ。
「Try the API」の画面で画像をアップロードして、情報を抽出してみましょう。
Cloud Speech-to-Text
https://gwgtool.page.link/CloudSpeech-to-Text
Google が提供する Cloud Speech-to-Text API の紹介ページ。
「START NOW」をクリックして、リアルタイムの音声や録音した音声をテキストに変換してみましょう。
Cloud Natural Language
https://gwgtool.page.link/NaturalLanguage
Google が提供する Natural Language API の紹介ページ。
「Try the API」の画面で文章を作成し、テキストの構造と意味を確認してみましょう。
TensorFlow Playground
https://gwgtool.page.link/Playground1
Google が提供する、機械学習の動作の原理を直感的に理解できるツール。
「Try the API」の画面で文章を作成し、テキストの構造と意味を確認してみましょう。
TensorFlow Playground(その1)
https://gwgtool.page.link/Playground2
TensorFlow Playground(その2)
https://gwgtool.page.link/Playground3
Google が提供する、機械学習の動作の原理を直感的に理解できるツール。
再生ボタンをクリックすると、コンピューターが実際に学習する様子を動きで確認することができます。
How Google does Machine Learning 日本語版
https://gwgtool.page.link/HowGoogledoesMachineLearning
機械学習についてデータだけでなくロジックの面からも考えるGoogle提供コンテンツ。
無料トライアルも可能ですのでぜひお試しください。
Machine Learning Crash Course
https://gwgtool.page.link/MachineLearningCrashCourse
Google が提供する、実践的な機械学習の利用を支援するための学習コンテンツ。
英語版のみのご提供となります。
Cloud Machine Learning サービス
https://gwgtool.page.link/CloudMachineLearning
Google Cloud の機械学習サービス。
10分40秒のTEDの講演です。脱北者の話は何度も聞いたことはありますが、実際に講演を聞いたのは初めてで衝撃を感じました。
「北朝鮮は想像を絶する」と人権活動家のヨンミ・パークは言う。13歳で国を逃れた。彼女は幼少期の悲惨な話を共有し、自由のもろさを振り返る。世界で最も暗い場所。
この講演は、TEDの公式カンファレンスで発表され、編集者がホームページで紹介しました。
スピーカー:延美公園 人権活動家
脱北者のヨンミ・パークは、世界中の抑圧された人々の代表的な声になりつつあります。
現在、コロンビア大学の学生であるパークは、ワシントンポストで北朝鮮の「ブラックマーケット世代」 に関する論説を発表し、CNN、CNBC、BBC、およびNew York Times and Wall Street Journalで紹介されています。彼女は、独裁政権の崩壊に専念する世界有数の組織である人権財団の理事会の役員を務めています。