-
岗位职责: 1、负责GIS应用相关产品功能的设计、编码、维护工作; 2、与项目经理、测试部门对接,参与完成需求分析、单元测试、功能测试、Bug修复等工作流程; 3、提供运维服务工作,编写相关文档; 4、完成公司交办的其他开发任务。 岗位要求: 1、 △ArcGIS、测绘、计算机软件或相关专业专科以上学历; 2、 △5年以上GIS开发经验; 3、 熟悉WebGL、三维GIS(ThreeJs等)相关开发。 4、 熟悉ArcGIS 、Cesium、SuperMap、OpenLayers等webGIS开发中的一种或多种并能针对上述平台进行二次开发; 5、△熟练掌握SQL语言,熟悉Oracle、Mysql、PostgreSQL、达梦等数据库使用,会使用基本的SQL语言进行数据的分析工作。 6、△参与过ToG项目交付,具有项目管理经验者优先,参与过ToG数据类交付经验优先。 7、 熟悉ArcServer,GeoServer等服务端产品以及ArcEngine\ArcObjects组件开发; 8、 熟悉常见前端框架/库,如:AngularJS,React,Vue,ES6,Bootstrap,jQuery等; 9、 熟悉空间数据处理,转换,如ArcMap、SuperMap、QGIS、Udig空间数据处理工具; 10、 对开源的GIS软件和开发库有一定的了解,例如:PostGIS、leaflet、GDAL、proj.4等; 11、 有良好沟通表达能力,有学习精神,有工作热情,吃苦耐劳,有团队精神,能够适应工作压力。
-
"主要职责: 1、基于业务数据,参与数据仓库模型建设、数据标准制定、数据质量治理等相关工作 2、参与数据治理相关专题分析及治理,沉淀数据治理规范性文档等。 3、负责日常ETL开发,任务运维及故障定位修复等。 4、深入理解业务,挖掘数据价值,对业务进行合理的抽象和建模,构建准确、稳定、高效的数据体系。" "1、掌握Kimball维度模型设计,参与过数仓层级划分,主题域设计,模型设计等,具备金融数仓、财务数仓建设经验优先。 2、具备海量数据加工处理相关经验,3年以上企业级数据仓库开发相关工作经验,有央企上报监管等经验优先。 3、熟练掌握ETL开发并有任务调优经验, 熟悉Hadoop生态, 熟练使用hive sql或者spark sql,有python经验优先。 4、对数据敏感,具有良好的逻辑分析、责任心强、良好的对外沟通和团队协作能力"
-
岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
-
工作职责: 1、对接企业管理、运营侧的用户数据需求,对数据需求进行分析归纳,输出需求文档 2、基于业务需求,配合业务完成业务流程及业务指标梳理,参与KPI指标设计,撰写需求文档PRD,协助数据团队完成相关数据报表、数据服务及BI看板的设计与开发; 3、有良好的用户需求分析把握能力,能够独立完成需求调研,捕获用户需求痛点,扩展需求,挖掘潜在需求 任职资格: 1、至少3年以上需求分析或产品设计经验 2、了解保险行业业务,具有保险行业数据中台、数据仓库、数据平台、数据应用、数据治理项目经验者优先 3、具备较强的需求分析、产品设计能力、文档撰写能力 4、有数据分析经验,数据敏感性高,熟悉SQL语言、有数据类项目经验优先; 5、候选人需具备较强的逻辑、沟通与组织能力和抗压能力,有项目协调/团队管理的经验优先
-
工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
【岗位职责】 1、基于专业的数据能力,歪马业务用户相关的数据监控及分析体系,预警或发现增长的主要问题,联动多部门推进落地一系列措施,达成目标。 2、负责经营数据分析、预算管理及增长节奏规划,围绕用户增长,制定并推进完成长短期目标实现。 3、和数据产品/研发团队协同,完成特定的模型及更深度数据能力建立。4、深入调研、分析用户特征及需求,协同数据、挖掘等团队,构建针对性、可落地的用户运营/画像体系。 【岗位要求】 1、3年以上相关运营经验,统计学、数学、经济学等专业优先;有数据运营、数据产品、策略运营经验者优先。 2、优秀的逻辑思维能力和数据分析能力,能独立完成数据监控与分析,熟练掌握SQL及相关分析软件。 3、具有良好的沟通协调能力和谈判能力,能高效推动跨部门协同,达成业务目标。 4、对酒水品类、即时零售领域有热情、有经验、有深入理解的优先。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。