keywords: 平台化、高并发、期权股票、海量数据、AIOPS 联系方式:
[email protected]大数据运维工程师
职位描述:
岗位职责:
1. 负责大数据基础服务如 Hadoop 、Spark 、ClickHouse 、ElasticSearch 、Kafka 、ZK 等集群运维、部署、管理与优化;
2. 负责大数据平台服务器的维护与管理,保证各集群服务器正常运行;
3. 负责开发、完善系统监控、报警、自动部署等内部自动化运维工具;
4. 负责大数据基础组件服务自动化工具的规划、建设、开发工作;
5. 负责数据分析平台基础组件上云工作。
任职要求:
1. 本科及以上计算机相关专业学历,对大数据技术有浓厚的兴趣;
2. 熟悉至少一个分布式框架,如 Hadoop 、ElasticSearch 、ClickHouse 、Spark 、Kafka 等,并对其原理特性有一定的理解;
3. 精通 Linux 操作系统,能够熟练使用 shell 进行日常工作;
4. 至少熟悉一种编程语言:Golang 、Python 、Java,具有良好的代码习惯并掌握基本的算法与数据结构;
5. 具有较强的沟通表达能力,做事思路清晰,具备跨团队的沟通协作能力,能主动推进用户研究成果的转化落地;
6. 有 ELK 、K8s 相关组件使用维护经验优先。
AIOps 开发工程师(数据分析开发方向)
职位描述:
岗位职责:
1 、负责智能监控平台 AIOps 各系统开发和维护;
2 、负责新浪内部数据提取、存储、可视化、数据报表系统开发和维护工作;
3 、负责新浪内部智能报警系统开发与管理工作;
4 、开发工具和系统,实现新浪内部业务服务质量数据出,发现问题并推进解决;
5 、快速响应和处理线上故障及系统运行突发事件,能使用开发工具和系统进行故障排查和问题根源分析;
职位要求:
1 、计算机或相关专业毕业,本科以上学历,至少一年以上相关工作经验;
2 、精通 Linux 系统(如:RHEL 、CentOS 等)的配置与管理;
3 、至少熟练掌握 Python 语言,熟悉 numpy/pandas/scipy 等模块,能完成分配的开发任务;
4 、精通 SQL,熟练掌握 MySQL 、ClickHouse 数据库使用者优先;
5 、具有 AIOps 践行经验,了解互联网产品架构经验者优先;
6 、有数据门户、可视化展示等系统开发经验者优先;
7 、工作踏实,做事仔细,有耐心有责任心,有良好的团队合作精神。