-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:我们为抖音电商、直播、教育、健康、内容付费等场景服务,依托字节跳动的科技能力和产品,为用户提供更好的支付、消费金融、保险等金融服务体验。科技创新,普惠大众。 1. 理解业务数据需求,负责数据探查、开发与分析、设计和构建对应业务的数据集市; 2. 负责ETL流程的开发和优化工作,解决业务数据分析、数据报表、数据异常相关的技术问题; 3. 负责主题数据质量问题的分析、跟进、解决。 职位要求: 1. 熟悉hadoop、hive、spark等常用大数据组件,有大数据处理经验者优先考虑; 2. 灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验; 3. 有良好的逻辑思维与沟通能力,具有高度的责任感,工作认真、踏实; 4. 有良好的沟通表达能力和跨团队协作能力优先; 5. 每周实习4天以上,实习周期不短于3个月。
-
1.参与互联网金融、互联网保险、电商、社交、游戏的用户获客业务,协助团队通过数据分析找出潜在趋势、特点、异常等,对精细化运营提供支持; 2.用户运营数据分析支撑,通过用户特征、行为数据、产品转化数据等对业务进行挖掘和分析,挖掘数据并进行数据的统计建模分析; 3.结合业务特点,探索并建立分析主题,对数据进行深度分析和挖掘,输出可读性强的分析报告;针对不同产品出具分析报告,支持各产品的数据分析,并提出优化策略; 4.针对产品、数据模型建立直观的评价指标体系,根据指标体系,指导运营和业务; 5.将数据分析成果应用于实践,并持续进行跟踪与优化; 6.制定数据分析的工作流程和规范,协助建立分析平台; 7.根据业务要求,结合实际工作需要,协助挖掘新的数据沉淀机会,并据此产生创新应用价值。 ### 任职要求: 1.**211、985本科及以上学历,计算机或数理统计相关专业背景,能够持续实习至少3-6个月以上,有意向实习后转正者优先; 2.至少掌握一种编程语言及Linux系统的基本使用,且具有良好的编码规范,熟练使用Python优先; 3.熟悉关系型数据库及相关使用,熟练掌握SQL的使用,了解Hive数据仓库及相关工具使用优先; 4.熟悉各类数理统计工具,具有机器学习与深度学习相关算法经验优先; 5.具有互联网金融、互联网保险、电商、社交、游戏等平台类运营、用户运营经验或产品运营相关实习经验优先; 6.具有良好的学习能力、时间管理意识、沟通能力,工作积极主动、有责任心,有较强的逻辑分析能力;
-
职位职责: Bytelntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:飞书作为先进的企业协作与管理平台,是字节跳动在B端与企业服务领域的重要布局。不仅一站式整合办公协作套件,更提供高效的组织管理、业务管理和 AI 智能伙伴等先进工具,帮助组织和个人为 AI 时代做好准备。各行业越来越多先进企业,都选择与飞书共创行业最佳实践。先进团队,先用飞书。 1、负责海量数据的处理,在分布式技术、存储平台基础上构建稳定、高效的数据链路,打造可视化数据产品; 2、负责数据建模以及数据仓库应用产品的设计和开发,完成离线、实时数据建设; 3、负责数据加工流程的优化,解决海量数据相关技术问题和性能优化。 职位要求: 1、2026届本科及以上学历在读,计算机相关专业; 2、对数据开发、分析、挖掘领域有兴趣和热情,有志于在大数据领域长期发展; 3、了解Hadoop生态系统,掌握SQL/Hive/Spark/Flink中的多项; 4、熟练掌握至少一种编程语言Python、Scala、Java、Go等; 5、实习时间:每周不少于4天,连续3个月以上。
-
工作职责: 1.大数据类岗位包括数据产品经理方向、数据分析方向、大数据开发方向等 2.数据产品经理主要负责数据产品的设计、开发和优化,实施数据产品策略和规划; 3.数据分析主要负责完成相关编程操作,落地相关模型与算法;负责日常数据统计分析,异常数据的跟踪和深入分析,建设业务分析模型,评估业务流程,监控业务质量、效率和风险。 4.大数据开发相关岗位主要负责大数据服务应用平台建设,数据仓库建设。负责互联网保险业务中与算法相关的设计、开发和优化工作。 任职资格: 1.本科及以上学历,计算机/软件工程/电子信息、保险、金融、精算、数学、统计、经济学等相关专业优先; 2.具备良好的数学和统计知识,具备较强的数据分析能力,精通SQL,熟练掌握数据报表处理工具; 熟悉常见的数据处理、分析和可视化工具等; 3.具备良好的沟通能力、团队协同能力,责任感、主动性强,积极推动问题的解决。
-
【职位描述】 1. 海量数据的ETL开发,抽取成各种数据需求; 2. 参与数据仓库架构的设计及开发 ; 3. 参与数据仓库ETL流程优化及解决ETL相关技术问题。 【职位要求】 1、具有本科及以上学历,数据科学及大数据技术专业; 2、有etl实际开发经验,掌握存储过程、Informatica Powercenter、IBM DataStage、kettle等至少其中一项ETL开发技术; 3、熟悉数据仓库逻辑架构,熟悉ETL流程、元数据管理、数据质量监控等数据仓库主要环节; 4、精通Oracle 、DB2、sqlserver 等数据库; 5、对开源技术非常感兴趣并具有一定的研究能力; 6、高度责任感和敬业精神,有良好的团队协作意识和沟通能力。 【面试流程】 初面(技术+HR)——复试(部门经理)——终面——背调(学历认证、工作经历认证)——入职 【工作时间】 1、09:00——18:00 2、周末双休 3、法定节假日带薪休假 【薪酬福利】 1、工资结构:基本+岗位+绩效 2、六险一金+周末双休+法定节带薪休假(并发放过节福利)+每年额外带薪年假(5-15天)+婚假+产假等 ①六险(养老保险,医疗保险,失业保险,工伤保险,生育保险,商业险) ②一金(住房公积金) 3、过节福利:现金奖励or实物发放 4、生日福利:百元礼物 5、每年组织国内旅游,每年免费千元体检 【工作环境】 高档办公环境,全天室内办公,每人拥有独立的工作区和电脑,另配冰箱、微波炉等设施; 工作氛围单纯舒适,同事之间相处和睦。
-
岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
-
2025届校招-Data Engineer(Java/Python)
[上海·浦东新区] 2024-09-0214k-26k·15薪 经验在校/应届 / 本科金融 / 上市公司 / 2000人以上岗位职责: 1、参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台; 2、参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等; 3、参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设; 4、参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 任职要求: 1、本科及以上学历,计算机、软件工程、统计学或相关专业出身,具备良好的问题解决能力; 2、掌握Java, Python等至少一门编程语言; 3、熟悉大数据生态技术栈,了解Hadoop,Hive,Spark,Flink中的一种或几种,有相关开发经验更佳; 4、熟悉数据仓库方法论或者有实战经验是加分项; 5、做事严谨有责任心,以及良好的沟通协调能力是加分项; 6、良好的英文文献阅读能力。 -
岗位JD如下: 职位名称:爬虫实习生 公司名称:XX公司 职位描述: 作为我们的爬虫实习生,你将有机会参与我们的数据采集和爬取工作,帮助我们的团队获取和处理数据。你将负责使用Scrapy和XPath等工具,编写爬虫程序,并对提取的数据进行处理和存储。此外,你还将学习使用JavaScript进行逆向分析,以提高数据处理的效率和准确性。 职位要求: 1. 具备计算机科学专业背景,对数据结构和算法有基本的了解。 2. 熟悉Scrapy和XPath等爬虫框架,能编写爬虫程序,并对提取的数据进行处理和存储。 3. 熟练掌握JavaScript编程语言,具备逆向分析技能。 4. 具备良好的团队合作能力和沟通能力,能够与团队其他成员有效地合作。 5. 具备基本的网络知识,了解HTTP协议、HTTPS协议等。 工作内容: 1. 使用Scrapy和XPath等爬虫框架,编写爬虫程序,并对提取的数据进行处理和存储。 2. 使用JavaScript进行逆向分析,提高数据处理的效率和准确性。 3. 参与数据仓库的设计和开发,熟悉SQL语言。 4. 参与项目开发,了解前后端开发流程,并能与开发人员进行沟通和协作。 5. 完成团队交办的其他任务。 岗位福利: 1. 具有竞争力的薪资待遇,享受带薪年假、节日福利等。 2. 提供良好的工作氛围和发展空间,定期组织团队建设活动。 3. 提供必要的培训和技能提升机会,包括 buting基础培训、算法基础培训、数据结构与算法培训等。
-
岗位职责: 1. 负责公司内部数据的收集、整理和分析,为公司提供决策支持。 2. 对公司各类业务的运营数据进行跟踪和监测,及时发现异常情况并提醒相关部门。 3. 负责撰写数据报告和分析文档,并向公司管理层进行汇报和说明。 4. 参与公司的数字化转型项目,协助推动数据化运营。 5. 负责维护公司的数据仓库,确保数据的准确性和完整性。 6. 与其他部门合作,共同完成公司的业务目标。 任职要求: 1. 本科及以上学历,数据分析、统计学、计算机等相关专业优先。 2. 熟练掌握数据分析工具和技术,如 SQL、Python 等,能够进行数据清洗、建模、可视化等工作。 3. 具备良好的数据分析能力和逻辑思维能力,能够快速识别和解决问题。 4. 拥有良好的沟通和协调能力,能够与团队成员和其他部门有效地合作。 5. 具备较强的学习能力和创新精神,对数据化运营有浓厚的兴趣和热情。 福利待遇: 1. 薪资在[合理的薪资区间],后续根据个人绩效和公司业绩进行调整。 2. 有完善的五险一金,以及额外的商业保险。 3. 有丰富的培训和发展机会,包括内部培训、外部培训、在线课程等。 4. 有舒适的工作环境和设备,包括宽敞的办公空间、先进的电脑设备等。
-
岗位职责: 1、参与公司数据仓库相关的需求分析、模型设计和代码开发工作; 2、完成数据准确性的自测,分析并解决相关的数据质量问题。 岗位要求: 1、2024届本科以上学历; 2、熟练使用Java语言及HiveSQL进行开发;有UDF函数开发经验; 3、熟悉大数据相关组件,如Hive、Flink、Kafka等; 4、熟悉linux系统基本操作,熟练使用常见的linux命令及shell脚本语言; 5、了解kimball维度建模理论或者数据仓库模型设计经验优先; 6、逻辑清晰,善于沟通,对数据敏感,有团队意识。
-
岗位职责: 1、协助大数据平台的搭建、部署。 2、大数据相关前沿技术、运用学习。 3、协助数据开发工作,包括数据仓库以及数据应用的技术设计和开发。 任职要求: 1、数据科学与大数据技术或计算机相关专业,*****本科及以上学历。 2、熟悉Linux开发环境,熟悉Shell,需要脚本编写及文件处理功底。 3、熟悉Java, Scala,Python开发语言。 4、了解至少一种任务调度框架,如Airflow , DolphinScheduler。 5、了解Hadoop系大数据组件、工具的原理,能熟练使用Hive、Spark、Flink等大数据开发工具。 6、了解Oracle、Mysql、Greenplum等主流数据库的其中一种。 7、了解Postgresql数据库引擎。 8、有良好的沟通和学习能力,强烈的工作责任心和良好的团队协作能力。 加分项: 1、有良好的文档整理能力,包括且不限于技术手册、项目方案、各类表格制作。 2、了解华为大数据体系。
-
工作职责: 1.负责公司数据系统的构建、维护与优化; 2.负责开发和维护ETL流程,确保数据准确性和完整性 ; 3.负责开发和维护数仓模型,设计数据架; 4.负责分析数据,提供有效的数据挖掘和分析结果支持公司业务决策 ; 5.负责对数据进行监控和管理,确保数据系统及时可靠。 任职资格: 1.在2023年7月至2024年7月期间毕业的海内外应届生,计算机、数学、统计学优先;硕士及以上学历; 2.熟悉数据仓库设计和建模理论,精通SQL语言和数据挖掘技术;熟悉常见数据存储结构,包括关系型数据库和NoSQL等; 3.具备扎实的计算机编程功底,熟悉至少一门编程语言(Python、Java、C++等); 4.熟悉常见数据处理工具,如Hadoop、Spark等;能从海量数据中筛选有价值的数据进行分析。
-
岗位职责: 1.参与客户需要报表的沟通及需要范围确认,对数据进行采集,预处理; 2.负责数据中台的BI设计及可视化报表开发; 岗位要求: 1.大专及以上学历,计算机相关专业;对BI商业智能行业有一定了解。 2.2年左右相关工作经验,精通至少一种BI工具,例如tableau、观远、帆软bi、smartbi、永洪bi,powerBI等; 3.至少熟悉SQL Server、DB2、MySQL、Oracle等数据库中的一种,熟练运用SQL; 4.熟悉数据仓库建设方法,有一定的建模知识与经验; 5.工作认真负责,做事积极主动,沟通表达良好,具备一定的抗压能力。 6.熟悉nosql,hadoop,hive,spark优先。
-
【薪资待遇】无责任底薪6200+津贴(2300+)+业绩提成+在职激励+其他、五险一金、带薪年假、法定节假日、周末双休。 【岗位职能】主要面向金融机构、上市公司、政府、高校销售自主版权的信息类软件、数据库和解决方案。 【岗位要求】 1、形象要求:男性身高>1.7米,女性身高>1.58米 2、学历要求:大专 3、专业要求:计算机或经济、财经相关专业等。 4、工作经验:非专业需一年以上跟金融相关工作经验 万得信息技术股份有限公司(下称:Wind)是中国大陆领先的金融数据、信息和软件服务企业,总部位于上海陆家嘴金融中心。在国内市场,Wind的客户包括中国绝大多数的证券公司、 基金管理公司、保险公司、银行和投资公司等金融企业;在国际市场,已经被中国证监会批准的合格境外机构投资者(QF)中的众多机构是Wind的客户。同时国内多数知名的金融学术研究机构和权威的监管机构也是我们的客户,大量中英文媒体、研究报告、学术论文等经常引用Wind提供的数据。 在金融财经数据领域,Wind已建成国内完整、准确的以金融证券数据为核心一流的大型金融工程和财经数据仓库,数据内容涵盖股票、基金、债券、外汇、保险、期货、金融衍生品、现 货交易、宏观经济、财经新闻等领域,新的信息内容及时进行更新以满足机构投资者的需求。针对金融业的投资机构、研究机构、学术机构、监管部门机构等不同类型客户的需求,Wind开发了一系列围绕信息检索、数据提取与分析、投资组合管理应用等领域的专业分析软件与应用工具。通过这些终端工具,用户可以7x24x365从Wind获取到及时、准确、完整的财经数据、信息和各种分析结果。精于数据,以数据为起点,Wind紧密跟随金融市场日新月异的发展,不断向新的领域发展,新的产品和服务战略不断在延伸。
-
【薪资待遇】无责任底薪6200+津贴(2300+)+业绩提成+在职激励+其他、五险一金、带薪年假、法定节假日、周末双休。 【岗位职能】主要面向金融机构、上市公司、政府、高校销售自主版权的信息类软件、数据库和解决方案。 【岗位要求】 1、形象要求:男性身高>1.7米,女性身高>1.58米 2、学历要求:大专 3、专业要求:计算机或经济、财经相关专业等。 4、工作经验:非专业需一年以上跟金融相关工作经验 万得信息技术股份有限公司(下称:Wind)是中国大陆领先的金融数据、信息和软件服务企业,总部位于上海陆家嘴金融中心。在国内市场,Wind的客户包括中国绝大多数的证券公司、 基金管理公司、保险公司、银行和投资公司等金融企业;在国际市场,已经被中国证监会批准的合格境外机构投资者(QF)中的众多机构是Wind的客户。同时国内多数知名的金融学术研究机构和权威的监管机构也是我们的客户,大量中英文媒体、研究报告、学术论文等经常引用Wind提供的数据。 在金融财经数据领域,Wind已建成国内完整、准确的以金融证券数据为核心一流的大型金融工程和财经数据仓库,数据内容涵盖股票、基金、债券、外汇、保险、期货、金融衍生品、现 货交易、宏观经济、财经新闻等领域,新的信息内容及时进行更新以满足机构投资者的需求。针对金融业的投资机构、研究机构、学术机构、监管部门机构等不同类型客户的需求,Wind开发了一系列围绕信息检索、数据提取与分析、投资组合管理应用等领域的专业分析软件与应用工具。通过这些终端工具,用户可以7x24x365从Wind获取到及时、准确、完整的财经数据、信息和各种分析结果。精于数据,以数据为起点,Wind紧密跟随金融市场日新月异的发展,不断向新的领域发展,新的产品和服务战略不断在延伸。