-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
职位职责: 1、跟踪GPGPU/NPU行业最新动态、产品与技术架构,分析公司内部业务系统需求,结合自研芯片架构,输出系统软硬件协同设计方案; 2、负责自研加速芯片系统软件栈的设计开发,包括BootROM/Bootloader,Linux/RTOS系统适配和设备驱动开发; 3、负责自研芯片设备管理/DFX/RAS/温控等功能模块的软件设计开发,负责系统问题分析定位。 职位要求: 1、本科及以上学历,计算机、体系结构等相关专业; 2、熟悉Linux C/C++开发,有扎实的编程基础; 3、有GPGPU/NPU芯片项目研发经验,熟悉Nvidia/AMD或国产厂家GPU计算产品,熟悉CUDA/ROCm等GPU软件栈; 4、熟悉ARM/RISC-V体系架构,熟悉CPU子系统/安全/温控/电源管理/MMU/Trace/低速接口等硬件模块,熟悉SoC启动/安全启动流程,熟悉ATF/MSCP/U-Boot; 5、熟悉Linux内核,有Linux/RTOS设备驱动开发经验,有丰富的系统问题分析调试经验; 6、有DFX/RAS软件设计开发经验,熟悉系统故障/异常处理策略和处理流程。 加分项: 1、有AI相关研发经验,熟悉CUDA编程,熟悉AI框架,对一种或者多种网络模型结构有深入理解; 2、擅长跨团队沟通交流协作,有项目或团队管理经验。
-
# Summary of This Role Responsible for overseeing Application systems, architecture, design, data workflow, logical processes, and system interfaces. Assure synergy between software and hardware architecture to maximize that relationship. Determine and develop architectural approaches and solutions, conduct business reviews, document current systems, and develop recommendations on how to proceed with the applications. Responsible for ensuring optimal application and system performance. # What Are We Looking For in This Role? Minimum Qualifications: - Bachelor's Degree - Relevant Experience or Degree in: Computer Science, Management Information Systems, Business or related field - Typically Minimum 8+ Years Relevant Exp #Preferred Qualifications - Master's Degree - Computer Science or Information Systems - Certification in IT Architecture # What Are Our Desired Skills and Capabilities? - Skills / Knowledge - Having broad expertise or unique knowledge, uses skills to contribute to development of company objectives and principles and to achieve goals in creative and effective ways. Barriers to entry such as technical committee review may exist at this level. - Job Complexity - Works on significant and unique issues where analysis of situations or data requires an evaluation of intangibles. Exercises independent judgment in methods, techniques and evaluation criteria for obtaining results. Creates formal networks involving coordination among groups. - Supervision - Acts independently to determine methods and procedures on new or special assignments. May supervise the activities of others. - Experience on design and develop distributed services in both VMs and containers - Backend technology stacks (Java,Node), frontend technology stacks (React, Angular), CI tools (Gradle, Jenkins, Shell) CD tools(Terreform, Python), Platforms (Linux, Docker, Kubernetes), Databases (MYSQL, MongoDB, Redshift, Redis), Cloud platform(AWS(EC2, S3,SQS, SNS, Lambda, Serverless, Kibana, Elasticsearch), Azure)
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
职位描述 1.负责公司软件项目建设落地。结合现场项目情况及对行业的研究、理解和目标做出项目实施计划方案、制定各业务解决方案。 2.组织客户访谈,挖掘客户需求,提出业务实践解决方案,完成文档的编写与用户确认; 3.进一步对需求进行分析解剖,确定最终业务流程,绘制原型图;完成《功能需求说明书》等撰写与确认,并组织内部需求评审; 4.与开发组进行需求沟通与交流,组织开发内容评审会,定期向部门负责人及客户汇报项目情况,实时监控工作进行; 5.进行整个项目干系人(客户、上级领导、团队成员、公司跨部门)之间关系的协调; 6.项目实施风险分析与项目进度、质量控制;定期召开项目会议,阶段性工作邀请客户、上级领导参加; 7.协同开发进行系统部署与测试,完成现场实施及客户对接工作,组织客户使用培训与功能讲解,持续上线使用跟踪; 8.持续客户运维工作,挖掘用户使用反馈,调整优化产品功能,确保服务通道畅通; 岗位要求: 1.本科及以上学历,具较强解决方案撰写能力及产品思维; 2.5年以上的政府项目实施经验,有大型定制化项目实施经验,能独立推动项目实施; 3.熟练使用Axure软件工具;良好的语言表达能力和沟通、分析能力; 5.具有一定的IT 知识及技能基础及项目管理技能,能够有效引导客户需求,能和客户进行有效沟通; 6.具备强烈的事业心和责任心,工作积极主动,能够承受工作压力; 加分项
-
工作职责 1.统筹网络架构规划、设计,对新技术的跟踪、预研、及引入工作,负责网络面向数字化、场景化、自服务化技术架构规划及落地,积极跟踪并分享国内外最前沿的网络技术,结合业务需求推动网络架构的演进方向及推广落地,引领团队始终保持网络的先进地位; 2.承接业务部门、集团客户和外部客户的云网络需求,进行需求分析,提供云网络解决方案,密切关注客户需求和业界动态,协调不同产品团队,推动网络解决方案的落地交付,促进网络产品的迭代更新; 3.调研行业IT治理数字化转型方案和趋势,推进网络系统数字化转型和升级,设计基于场泉的端到端闭环流程,不断提升网络智能化和自动化能力; 4.负责网络数字化转型用户调研, 需求分析及设计落地,提升云网络投产效率,降低人因风险, 保障网络安全可靠运行; 5.完成相关项目管理及需求迭代等工作, 完成领导安排的其他工作。 任职要求 1. 本科及以上学历,5年以上云网络产品或数据中心网络相关工作经验; 2. 熟悉相关场景,网络解决方案及架构,包括不限于,如:骨干网,广域网,办公网,云网络或容器网络; 3. 有丰富的云网络或基础网络产品项目拓展经验,有云网络架构师工作经验,或网络数字化转型领域相关经验者,优先考虑。2、具备大型数据中心网络监控体系及自动化运维体系规划建设和实施经验; 4、熟悉传统网络协议,比如OSPF、BGP、ISIS、MPLS的使用场景,熟悉云数据中心网络,比如OVS、SDN、VXLAN/EVPN、容器网络等技术; 5、具备丰富的网络架构设计及实施经验,积极主动思考,自我驱动力强; 6. 思路清晰,具备良好的沟通协调能力及语言表达能力,良好的团队协助精神,积极主动,有良好的抗压能力; 7. 有HCIE、CCIE证书者,优先考虑。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。