-
职位职责: 1、负责字节跳动旗下一站式协作平台飞书的数据分析相关工作,有机会能够独立负责战略核心项目数据分析,空间大,有深度接触飞书AI方向的工作; 2、对企业办公、协同类工具产品有一定的了解或感兴趣,从数据出发参与到业务中,通过监控重点数据及分析探查,发现潜在的问题与机会,给出数据支持,为产品决策提供支撑; 3、全面分析各项影响产品体验提升与用户增长的因素,针对具体产品功能设计数据增长模型,给出可落地的产品优化方案,跟进增长动作落地及效果评估,数据话语权高; 4、对接业务部门数据需求,能够有效解决合作方的数据问题和诉求。 职位要求: 1、本科及以上学历,数据统计、计算机、经济管理相关专业; 2、熟练掌握数理统计方法,熟练使用SQL语句,熟悉Hadoop、Hive、Flink等大数据相关技术应用,会Python加分;逻辑性好; 3、有过数据分析或数据科学相关工作经验; 4、有探索分析的主动性,自驱力强;敢于表达观点,能独立负责具体项目完整分析,拿结果; 5、加分项:有过B端产品功能、业务运营、商业化等相关分析,有一定行业背景,深度参与过新业务增长;懂AI;过往有海外背景。
-
职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
工作职责: 1,AI模型应用与开发(40%) 参与部门的模型策略类开发项目,专注于AI模型的开发与优化,确保模型在实际业务场景中的高效应用。 2,AI驱动的数据分析(50%) 参与部门的AI服务架构(SOA)设计与优化,协助完成自动化数据处理流程(automatic pipeline),提升数据处理效率和模型性能。 3,团队协作与沟通(10%) 与商务、运营、研发等团队紧密合作,确保AI模型开发与业务需求紧密结合,推动项目顺利实施。 任职资格: 1,硕士及以上学历,2年以上AI模型开发与应用项目经验,应用数学、物理、统计、计算机与算法相关专业。 2,具备丰富的AI模型开发经验,熟悉LLM(大型语言模型)、深度学习、数据挖掘等技术在实际项目中的应用,了解NLP(自然语言处理)、CV(计算机视觉)的基础概念。 3,精通Python编程,能够高效搭建AI模型框架,实现复杂深度学习模型的开发与部署。 4,具备良好的英语交流与阅读能力,能够无障碍阅读和理解英文技术文档。 5,加分项: -有保险风控建模领域经验,熟悉风控大数据挖掘与分析者优先。 -在Kaggle等建模大赛中获奖者优先。
-
25k-45k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1.结合信贷业务场景,对内部海量数据进行清洗与深度挖掘,提炼稳定且有效的数据产品,为金融机构信贷业务搭建全生命周期模型提供数据基础; 2.使用Python开发并优化逻辑回归、XGBoost、深度神经网络等机器学习模型,结合信贷金融业务属性和场景,提升模型算法的表现,完善金融机构的全场景化模型组合; 3. 全程参与数据产品的研发,包括需求分析、市场分析、产品设计、产品性能测试、上线推广等环节,确保产品的高效交付和稳定运行; 4.积极研究和跟进前沿大数据建模理论和技术,将其有效融入产品开发中,以维持并提升产品的技术竞争力; 5.针对不同信贷金融机构的业务特色,设计定制化的风控和营销解决方案。运用大数据和算法技术,为合作伙伴提供精准的业务支持和服务。 岗位要求: 1.计算机、数学、统计、金融、物理、信息工程等数理专业硕士及以上学历; 2.具有3年及以上银行、消金或者互联网金融等相关的风险模型、数据挖掘相关工作经验,对信贷业务流程和系统有深刻理解; 3.精通风险管理和营销模型的构建方法,熟练掌握统计分析和数据挖掘技术。具备强烈的数据敏感性,能够独立发现并解决问题,具有自我激励和驱动的能力; 4.熟练应用Python、R等数据挖掘工具,掌握逻辑回归、XGBoost等机器学习算法,并了解深度学习和前沿算法的发展趋势; 5.具备良好的团队合作精神,优秀的沟通能力和项目管理技能,能够在快节奏的工作环境中有效推动项目进展。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位说明: 1. 针对重点行业(能源、泛半导体、化工、钢铁等)的智能制造与数智化升级,深入理解客户的业务需求,运用数据分析/数据挖掘技术解决客户的实际问题; 2. 基于公司的数据平台产品,开展如下工作:数据标准建立、数据清洗、数据资源化设计、数据分析或优化模型的开发、部署和测试、并支持数据分析应用的开发和落地; 3. 针对设备域、生产域、质量域、能源域等具有共性的数据分析模型和行业应用进行抽象与研究,支撑数据分析产品的开发和在大数据平台的应用。 岗位要求: 1. 结合数据理解业务需求,具有独立定义和解决工业数行业据分析/数据挖掘问题的能力,具有良好的理工科背景和清晰的逻辑思维能力; 2. 精通数据处理、统计分析和常用数据挖掘/机器学习算法,熟悉工业现场的设备数据、MES数据等,有丰富的工业数据分析相关的实际项目经验; 3. 精通Python及常用的数据分析算法包(例如numpy, pandas, sklearn, tsfresh, statsmodels, matplotlib, seaborn, pyecharts等); 4. 有良好的客户沟通、业务调研、团队合作与技术管理能力;能独立作为项目技术负责人带领初中级数据分析师和其他技术人员一起交付客户项目; 5. 具有工业软件相关背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者; 6. 熟悉常见软件工程设计模式(例如OO、ORM、DDD、ER建模等),具有一定应用开发经验(例如基于数仓的Web应用等),熟悉常用数据库、大数据、并行计算等相关技术和工具者优先。 7. 5-10年工作经验。
-
岗位说明: 1. 针对重点行业(能源、泛半导体、化工、钢铁等)的智能制造与数智化升级,深入理解客户的业务需求,运用数据分析/数据挖掘技术解决客户的实际问题; 2. 基于公司的数据平台产品,开展如下工作:数据标准建立、数据清洗、数据资源化设计、数据分析或优化模型的开发、部署和测试、并支持数据分析应用的开发和落地; 3. 针对设备域、生产域、质量域、能源域等具有共性的数据分析模型和行业应用进行抽象与研究,支撑数据分析产品的开发和在大数据平台的应用。 岗位要求: 1. 结合数据理解业务需求,具有独立定义和解决工业数行业据分析/数据挖掘问题的能力,具有良好的理工科背景和清晰的逻辑思维能力; 2. 精通数据处理、统计分析和常用数据挖掘/机器学习算法,熟悉工业现场的设备数据、MES数据等,有丰富的工业数据分析相关的实际项目经验; 3. 精通Python及常用的数据分析算法包(例如numpy, pandas, sklearn, tsfresh, statsmodels, matplotlib, seaborn, pyecharts等); 4. 有良好的客户沟通、业务调研、团队合作与技术管理能力;能独立作为项目技术负责人带领初中级数据分析师和其他技术人员一起交付客户项目; 5. 具有工业软件相关背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者; 6. 熟悉常见软件工程设计模式(例如OO、ORM、DDD、ER建模等),具有一定应用开发经验(例如基于数仓的Web应用等),熟悉常用数据库、大数据、并行计算等相关技术和工具者优先。 7. 5-10年工作经验。