Hadoopフリーエンジニアの求人案件/仕事情報

Hadoopは、Apacheのトップレベルプロジェクトの1つで、大規模データの分散処理を支えるオープンソースのソフトウェアフレームワークです。Javaで書かれ、アプリケーションが数千ノードおよびペタバイト級のデータを処理することができます。BIシステムに導入することで、様々なアプローチを組み合わせた柔軟な分析や、膨大データに基づく詳しい分析、個人スキルに依存しない分析、などを実現できます。 Hadoopにデータを集約し、事前に加工しておけば、分析の速度も向上します。

1件のITエンジニア案件

ソーシャルゲーム業界向けのシステム基盤構築案件となります。 ソーシャルゲームに必要な会員管理機能、決済機能、カードゲームアルゴリズム、SNS連携機能、広告管理機能を APIとして提供するシステム基盤をJavaで構築して頂きます。 API部分はJava(現行のコアシステム)とScala(サブスシステムの一部)で構成されおり、本プロジェクトでは Javaのコア部分を改修することとなり...

募集状況現在2名募集しています
月額800,000
推薦コメント

先端技術を習得する機会ですので大変おすすめです。

勤務地池袋/ 東池袋
必須スキル

・RESTful APIの外部公開経験
・PHP / Ruby / PythonなどLL系言語でのソーシャルゲーム開発経験
・エンタープライズ領域でJavaを利用したプログラミング経験(WEB、コンソール問わず)
・AWS / Azure / OpenStack等の仮想クラウドサーバ環境の構築経験

関連スキル
関連ポジション
フリーエンジニア専門のエージェントに無料登録する

Hadoopの案件について

Hadoopは、テラバイト、ペタバイト級の膨大な容量データの分析を高速に処理できることから、「ビッグデータ」活用の際の主要技術として活用するところが増えています。

オープンソースなので低コストで導入できますが、扱うスキルを持った人材が必要となります。
効率的運用のためには、いかにデータを分散させ、効果的な処理ができるようになるか、よく考えなければいけません。
これに伴ってサーバの配置、データの処理単位などについても検討する必要が生じます。

また、Hadoopだけでなく、分析処理や統計処理とも連携させ、詳しい分析、統計をいかに実行するか、という課題もあります。
ただ、ビッグデータの時代の流れにより、Hadoopを基盤としたパッケージも増え、こうした課題も解消しやすくなっています。
Hadoopはビッグデータ時代に欠かせない主要技術の1つともなりつつあり、今後さらに普及が進むものと見られています。

HadoopのIニーズの高まりに比べ、Hadoopによる解析経験者は少ないことから、Hadoop経験者は転職にも有利となります。
ビッグデータ解析が必要となるのは、PC分野だけでなく、モバイル&スマートフォン分野でもニーズがあります。
IT業界全体で、Hadoopによる環境構築や運用経験、データ解析のスキル・経験がある人は、活躍の場がさらに広まります。
ビッグデータ分析の案件は、報酬面でも高い報酬が見込めます。