|
珞珈山水BBS →
社会信息 →
工作 →
单文区文章阅读
|
| 单文区文章阅读 [返回] |
|---|
|
发信人: damon302 (), 信区: Job 标 题: 【全职】顶尖Hadoop厂商——星环科技招聘 发信站: 珞珈山水 (Thu Jan 21 10:57:14 2016), 站内 【全职】顶尖Hadoop厂商——星环科技招聘 公司现在处于飞速发展中,由于业务需要每个岗位都需要更多的精英加盟, 无论你喜欢从大处着手(我们的系统需要处理上P的数据)还是从小处提高 (我们调整性能需要从毫秒入手), 喜欢做底层技术(Spark,Shark,HBase,Hive,HDFS,JVM调优)还是做美丽的界面(HTML,CSS,AngularJS),抑或你是一个传说中的Full Stack Engineer,在这里都能找到你的位置。 星环信息科技(上海)有限公司简介: 星环信息科技(上海)有限公司是目前国内极少数掌握企业级大数据Hadoop和Spark核心技术的高科技公司,从事大数据时代核心平台数据库软件的研发与服务。在全球去IOE的大背景下,Hadoop技术已成为公认的替代传统数据库的大数据产品。公司产品Transwarp Data Hub (TDH)的整体架构及功能特性比肩硅谷同行,产品性能在业界处于领先水平。 公司研发团队是国内最早的大数据Hadoop发行版团队,从2009年起即开始致力于大数据Hadoop平台软件的自主创新和开发,与硅谷同类公司同时起步;2011年在中国率先推出Hadoop发行版;之后,团队负责人原英特尔亚太研发中心CTO孙元浩、亚太区销售总监佘晖离开英特尔,创办星环科技,注册资金五千万。以上海为核心总部,北京分公司;在广州、南京、济南等地分设办事处。 公司研发团队大多来自知名外企,员工的85%为研发工程师,以博士硕士为主,全部来自Intel,Microsoft,Nvidia , IBM , Oracle,百度等知名科技公司以及南京大学、复旦大学、上海交大、中科大、美国普渡大学等知名学府,也包括放弃海外知名企业优厚待遇回国创业的成员。这样的研发团队规模在国内专业大数据Hadoop开发的团队中并不多见。 TDH是基于Hadoop和Spark的分布式内存分析引擎和实时在线大规模计算分析平台,相比开源Hadoop版本有10x~100x倍性能提升,可处理GB到PB级别的数据。星环科技同时提供存储、分析和挖掘大数据的高效数据平台和服务。 来星环,能学到最新最前沿的技术,任何岗位都是核心,不会沦为螺丝钉;在这里人尽其才,写一段漂亮的代码、写一个牛逼的算法,在金融、政府、交通、通信等行业都会打上个人标签。 对于比较优秀的同学:星环科技会提供比BAT更有竞争力的薪资,另配含金量极高的期权。 电话:021-54265007-116 QQ咨询:2335123066 职位申请方式: 简历投递至danhui.li@transwarp.io 邮件主题为“职位名称+姓名+城市” 并行计算平台软件工程师/架构师 工作职责: 负责基于Spark的并行计算平台的开发与优化工作 职位要求: 1. 熟练掌握Java语言 2.有深厚的操作系统,数据结构和算法基础 3. 熟悉并行计算或者分布式计算者优先考虑 4.较强的团队合作能力 工作地点:上海 北京 分布式数据库开发工程师 工作职责: 负责星环分布式存储系统的设计,开发与运维工作。 职位要求: 1.      掌握基础计算机专业知识,具备优秀的代码编写能力。 2.      熟悉Java语言,linux基本原理,熟悉网络编程 3.      良好的沟通与团队协作能力;敢于创新,乐于接受挑战。 4.      有分布式存储系统(如HBase/Mongdb/cassandra等)开发或运维经验者优先。 5.有搜索引擎(如Elasticsearch/Solr/Lucene等)开发经验者优先。 工作地点:上海、北京 分布式索引开发工程师/架构师 工作内容: 参与或负责星环TDH组件StarIndex的设计与开发工作。  包括并不限于:  在超大数据量上(100TB)实现高速索引技术 支持高速索引的高并发查询与修改  支持高速索引存储在多种存储介质上(SSD/FS/Memory)  支持高度容错 职位要求:      熟悉数据库原理和索引技术      熟悉常用数据结构和算法      熟悉操作系统      良好的团队合作能力      有分布式系统设计经验优先 工作地点:上海、北京 流式计算开发工程师 工作职责: 负责基于Spark的流式计算引擎的设计与开发工作 职位要求: 1.熟悉Java或者Scala语言 2.熟悉计算机网络 3.有良好的系统分析,故障诊断能力者优先 4.对Spark,Kafka感兴趣 5.较强的团队合作能力 工作地点:上海 北京 SQL编译器开发工程师 工作职责: 负责基于hadoop的SQL编译器,包括SQL的静态编译,解析执行计划和优化器的开发工作 职位要求: 1.熟悉编译原理,操作系统,有良好的数据结构和算法功底 2.熟悉SQL语言,了解存储过程和函数优先 3.有编译器开发经验者优先 4.较强的团队合作能力 工作地点:上海 中间件开发工程师 职位要求: 1. 熟悉JAVA或者C++ 2. 熟悉SQL语言 3. 有良好的数据结构和算法功底 4.熟悉计算机网络 工作地点:上海 北京 云计算平台开发工程师  工作职责: 基于Docker开源社区,开发高可靠自动化的云计算平台 职位要求: 1.      掌握基础的计算机专业知识,如Linux,网络,数据库,操作系统等 2.      熟练掌握(Go, Java, C++)至少一种编程语言,熟悉Go语言者有加分,参与过开源项目者有加分 3.      对新兴事物有强烈的好奇心,有将最新的技术转化为产品的热情 4.      有与人沟通的能力,乐意分享,敢于承诺 工作地点:上海 数据挖掘算法开发工程师 工作职责:  1、分布式机器学习算法的开发和优化; 2、在线和离线海量数据分析平台的设计和开发; 3、大规模数据挖掘系统的设计和实现。 职位要求:  - 硕士及以上学历,计算机 相关专业 2年及以上工作经验 -熟悉常用的机器学习算法,了解不同模型的特性,具有灵活运用模型进行数据分析的能力 -熟悉spark,具有分布式数据挖掘项目经验 -熟悉下列任意一种数据分析软件R/MATLAB/Python -熟悉linux平台、熟悉脚本(shell、python等)编程 -具有良好的沟通能力,和良好的团队合作精神 -优秀的分析问题和解决问题的能力,对解决具有挑战性问题充满激情  有以下任一领域有深入研究者优先: -机器学习/信息检索/自然语言处理/统计学习/博弈论/人工智能  -具有海量数据挖掘、分布式计算或高性能并行计算应用经验者优先 -具有行业经验者优先 安全开发工程师  工作职责: 负责Kafka/Spark/Hive/Hadoop等基础平台的安全功能开发 职位要求: 对安全体系结构有一定了解,有身份认证和权限管理开发经验优先 熟练掌握Java或Scala语言,了解JAAS, SASL优先 熟悉计算机网络,对网络安全有一定了解 熟悉主流分布式计算框架,熟悉源码者优先 负责认真,有较强的团队合作能力 大数据云后端开发工程师 扎实的Java语言编程能力 出色的troubleshooting能力(特别是在分布式环境下) 工作积极主动,自我驱动能力强 满足以下一项或者多项会大大加分: 1 熟悉Hadoop组件的配置和监控 2 熟悉Java后端框架Spring和Hibernate 3 熟悉AKKA 4 熟悉SMTP和SNMP在监控预警中的应用。 5 熟悉Ganglia和Nagios 工作地点:上海 大数据云前端开发工程师 工作职责: 大数据管理软件Web端的设计与开发 职位要求: 有实际Web工程开发经验 熟练掌握Web技术如 HTML/CSS/JS的知识 熟练使用Bootstrap和angularJS 熟练使用Spring和Hibernate框架 有下列条件者优先: 熟练使用Java语言编程 熟练使用AKKA编程 开发过Rest API 对易用性及视觉感觉有较高要求 工作地点:上海 Why Join us: 1.行业前景:大数据时代核心平台数据库软件的研发,业已验证的商业模式。很有前景+钱景! 2.强悍团队:技术产品团队来自谷歌、Intel、微软、摩根士丹利、英伟达、AMD、BAT、EMC,以博士硕士为主;配合极为彪悍的销售精英团队; 3.个人发展:团队和业务都在快速成长,接触核心的Hadoop和Spark技术,拒绝做“螺丝钉”; 4.薪酬福利:敢与BAT叫板的薪资+丰厚期权,全额五险一金,补充医疗保险让你无忧; 5.员工培训:新人入职均会配以资深导师进行一对一辅导,让你快速成为技术大牛; 6.员工活动:不定期旅游,亲近大自然;足球、篮球、保龄球、羽毛球、K歌、游泳兴趣小组应有尽有,让你快乐工作同时身体棒棒哒! 想要了解更多Transwarp的信息?欢迎登陆我们的主页  www.transwarp.io  -- ※ 来源:·珞珈山水 http://bbs.whu.edu.cn·[FROM: 116.228.132.*] |
| [返回单文区目录] |
|
|