|
珞珈山水BBS →
社会信息 →
工作 →
单文区文章阅读
|
| 单文区文章阅读 [返回] |
|---|
|
发信人: damon302 (), 信区: Job 标 题: [全职]顶尖Hadoop&Spark厂商——星环科技研发职位招聘 发信站: 珞珈山水 (Wed Feb 17 18:58:34 2016), 站内 公司现在处于飞速发展中,由于业务需要每个岗位都需要更多的精英加盟, 无论你喜欢从大处着手(我们的系统需要处理上P的数据)还是从小处提高 (我们调整性能需要从毫秒入手), 喜欢做底层技术(Spark,Shark,HBase,Hive,HDFS,JVM调优)还是做美丽的界面(HTML,CSS,AngularJS),抑或你是一个传说中的Full Stack Engineer,在这里都能找到你的位置。 星环信息科技(上海)有限公司简介: 星环信息科技(上海)有限公司是目前国内极少数掌握企业级大数据Hadoop和Spark核心技术的高科技公司,从事大数据时代核心平台数据库软件的研发与服务。在全球去IOE的大背景下,Hadoop技术已成为公认的替代传统数据库的大数据产品。公司产品Transwarp Data Hub (TDH)的整体架构及功能特性比肩硅谷同行,产品性能在业界处于领先水平。 公司研发团队是国内最早的大数据Hadoop发行版团队,从2009年起即开始致力于大数据Hadoop平台软件的自主创新和开发,与硅谷同类公司同时起步;2011年在中国率先推出Hadoop发行版;之后,团队负责人原英特尔亚太研发中心CTO孙元浩、亚太区销售总监佘晖离开英特尔,创办星环科技,注册资金五千万。以上海为核心总部,北京分公司;在广州、南京、济南等地分设办事处。 公司研发团队大多来自知名外企,员工的85%为研发工程师,以博士硕士为主,全部来自Intel,Microsoft,Nvidia , IBM , Oracle,百度等知名科技公司以及南京大学、复旦大学、上海交大、中科大、美国普渡大学等知名学府,也包括放弃海外知名企业优厚待遇回国创业的成员。这样的研发团队规模在国内专业大数据Hadoop开发的团队中并不多见。 TDH是基于Hadoop和Spark的分布式内存分析引擎和实时在线大规模计算分析平台,相比开源Hadoop版本有10x~100x倍性能提升,可处理GB到PB级别的数据。星环科技同时提供存储、分析和挖掘大数据的高效数据平台和服务。 来星环,能学到最新最前沿的技术,任何岗位都是核心,不会沦为螺丝钉;在这里人尽其才,写一段漂亮的代码、写一个牛逼的算法,在金融、政府、交通、通信等行业都会打上个人标签。 QQ咨询:2335123066 职位申请方式: 简历投递至danhui.li@transwarp.io 邮件主题为“职位名称+姓名+城市” 并行计算平台软件工程师 职位要求: 1. 熟练掌握Java语言 2.有深厚的操作系统,数据结构和算法基础 3. 熟悉并行计算或者分布式计算者优先考虑 4.较强的团队合作能力 工作地点:上海 北京 分布式数据库开发工程师 职位要求: 1.      掌握基础计算机专业知识,具备优秀的代码编写能力。 2.      熟悉Java语言,linux基本原理,熟悉网络编程 3.      良好的沟通与团队协作能力;敢于创新,乐于接受挑战。 4.      有分布式存储系统(如HBase/Mongdb/cassandra等)开发或运维经验者优先。 5.有搜索引擎(如Elasticsearch/Solr/Lucene等)开发经验者优先。 工作地点:上海、北京 流式计算开发工程师 职位要求: 1.熟悉Java或者Scala语言 2.熟悉计算机网络 3.有良好的系统分析,故障诊断能力者优先 4.对Spark,Kafka感兴趣 5.较强的团队合作能力 工作地点:上海 北京 SQL编译器开发工程师 职位要求: 1.熟悉编译原理,操作系统,有良好的数据结构和算法功底 2.熟悉SQL语言,了解存储过程和函数优先 3.有编译器开发经验者优先 4.较强的团队合作能力 工作地点:上海 中间件开发工程师 职位要求: 1. 熟悉JAVA或者C++ 2. 熟悉SQL语言 3. 有良好的数据结构和算法功底 4.熟悉计算机网络 工作地点:上海 云计算平台开发工程师  职位要求: 1.      掌握基础的计算机专业知识,如Linux,网络,数据库,操作系统等 2.      熟练掌握(Go, Java, C++)至少一种编程语言,熟悉Go语言者有加分,参与过开源项目者有加分 3.      对新兴事物有强烈的好奇心,有将最新的技术转化为产品的热情 4.      有与人沟通的能力,乐意分享,敢于承诺 工作地点:上海 云计算平台运维工程师 职位要求 1.      掌握基础的计算机专业知识,如Linux Git/SVN版本控制系统等 2.      熟悉 (Go, Java, C++)至少一种编程语言 3.      了解(Python, Shell)至少一种脚本语言 4.      沟通的能力好,乐意分享,敢于承诺 5.      对Docker/Go语言等新技术感兴趣 工作地点:上海 安全开发工程师 职位要求: 1.   熟练掌握Java或Scala语言,了解JAAS, SASL优先 2.熟悉计算机网络,对网络安全有一定了解 3.熟悉主流分布式计算框架,对研究源码有兴趣者优先 3.对云安全感兴趣 4.负责认真,有较强的团队合作能力 工作地点:上海 大数据云后端开发工程师 扎实的Java语言编程能力 出色的troubleshooting能力(特别是在分布式环境下) 工作积极主动,自我驱动能力强 满足以下一项或者多项会大大加分: 1 熟悉Hadoop组件的配置和监控 2 熟悉Java后端框架Spring和Hibernate 3 熟悉AKKA 4 熟悉SMTP和SNMP在监控预警中的应用。 5 熟悉Ganglia和Nagios 工作地点:上海 大数据云前端开发工程师 工作职责: 大数据管理软件Web端的设计与开发 职位要求: 有实际Web工程开发经验 熟练掌握Web技术如 HTML/CSS/JS的知识 熟练使用Bootstrap和angularJS 熟练使用Spring和Hibernate框架 有下列条件者优先: 熟练使用Java语言编程 熟练使用AKKA编程 开发过Rest API 对易用性及视觉感觉有较高要求 工作地点:上海 测试开发工程师  职位要求: 1、对软件测试和系统测试有兴趣 2、熟练掌握一门主流编程语言:Java、C++等 3、熟悉Linux命令行和脚本使用者优先 4、逻辑思维清晰,有耐心 工作地点:上海 数据工程师 工作职责: 1. 原型验证,主要是在客户业务场景下验证我们产品的功能以及性能。需要在客户现场搭建我们的产品平台,与客户沟通,就客户的需求或业务场景在大数据产品平台上实现; 2. 解决方案编写; 3. 产品部署实施。 职位要求: 1.      计算机或相关专业,本科及以上学历 2.      熟悉Linux shell以及SQL 语言 3.      熟悉Java语言 4.      对Hadoop/HBase/Hive/Sqoop/Flume有兴趣 5.      做事认真负责,沟通能力良好,自学能力较强,能够出差 工作地点:上海、北京、成都、广州 售前工程师 职位要求: 1.      计算机或相关专业,硕士及以上学历 2.      做事认真负责,沟通能力良好,自学能力较强,能够出差 3.      熟悉Linux shell以及SQL 语言 4.      熟悉Java语言 5.      对Hadoop/HBase/Hive/Sqoop/Flume有兴趣 工作地点:上海、北京 销售工程师 岗位职责 1、负责公司产品的推广与销售; 2、了解客户需求,发展新客户,并维护客户关系; 3、完成部分技术支持和客户售前服务工作; 4、参与各类商务活动,包括标书制作、产品演示推广、述标等 职位要求: 1、计算机、营销等相关专业本科及以上学历; 2、具备较强的客户沟通能力和较高的商务处理能力; 3、具有良好的团队协作精神; 4、学习能力强,有进取心,勇于面对挑战。 工作地点:上海、北京、成都、广州 资深售前工程师/资深大数据顾问     主要职责 1、负责编写金融,电信,智能交通,政府能源等行业大数据技术和应用规划,有任一行业知识即可,跨多个行业优先。 2、制定项目的技术方案、标书的准备、讲解及用户答疑等工作; 3、配合销售经理完成与用户的技术交流、技术方案宣讲、应用系统演示等工作; 4、日常用户沟通、资料共享、技术协调等工作; 5、与合作伙伴、客户的日常技术交流。 要求 1、熟悉金融,电信,智能交通,政府能源等行业技术和应用架构,了解大数据行业的数据仓库,数据集市,风险控制,审计,或征信,智能交通,公安行业等业务者优先; 2、担任过运营商,银行,券商,或保险行业的项目经理者优先; 3、能够熟练编写技术和应用方案,能够为客户提供贴身顾问式咨询服务; 4、做事认真负责,沟通能力良好,自学能力较强; 5、有大数据HADOOP,Oracle, DB2, TeraData, 或SAS、R等使用经验。 工作地点:上海、北京 大数据分析培训师 工作职责 -做数据分析类的系统实施项目 -开发R相关的应用分析 - 整理和撰写大数据分析培训教材 - 给客户做大数据和相关类型培训 职位要求: -数学或计算机相关专业硕士(或以上)学历 -语言沟通能力强,擅长语言表达能力,有讲师经验优先 -理解常用的机器学习算法,熟悉R语言和相关的算法基础 -有一定的数学建模和分布式系统功底 -熟悉Linux shell以及SQL 语言 -熟悉Java语言 -有Hadoop/SPARK/HBase/Hive/sqoop/flume基本命令者优先 -做事认真负责,沟通能力良好,自学能力较强。 大数据培训师 工作职责 - 做系统实施项目咨询 - 整理和撰写大数据平台培训教材 - 给客户做大数据和相关类型培训 职位要求: -信息或计算机相关专业硕士(或以上)学历 -语言沟通能力强,擅长语言表达能力,有讲师经验优先 -熟悉Linux shell以及SQL 语言 -动手能力强,有系统运维和测试经验 -熟悉Java语言 -有Hadoop/SPARK/HBase/Hive/oracle基本命令者优先 -做事认真负责,沟通能力良好,自学能力较强。 实习岗位同时热招中!上述职位的实习岗位开放申请中!!!  欢迎投递简历至danhui.li@transwarp.io 邮件主题“实习+职位+名字+学校” Why Join us: 1.行业前景:大数据时代核心平台数据库软件的研发,业已验证的商业模式。很有前景+钱景! 2.强悍团队:研发团队人员主要来自谷歌、Intel、微软、摩根士丹利、英伟达、AMD、BAT、EMC等知名公司,员工的80%为研发工程师,以博士硕士为主;配合极为彪悍的销售精英团队; 3.个人发展:团队和业务都在快速成长,接触核心的Hadoop和Spark技术,拒绝做“螺丝钉”; 4.薪酬福利:敢与BAT叫板的薪资,全额五险一金、补充公积金、补充医疗保险让你无忧; 5.员工培训:新人入职均会配以资深导师进行一对一辅导,让你快速成为技术大牛; 6.员工活动:不定期旅游,亲近大自然;足球、篮球、保龄球、羽毛球、K歌、游泳兴趣小组应有尽有,让你快乐工作同时身体棒棒哒! 想要了解更多Transwarp的信息?欢迎登陆我们的主页  www.transwarp.io  -- ※ 来源:·珞珈山水 http://bbs.whu.edu.cn·[FROM: 116.228.132.*] |
| [返回单文区目录] |
|
|