-
职位职责: 1、负责大模型核心技术的研究与开发,深入理解其工作原理,不断探索创新应用场景; 2、主导大模型应用的构建过程,从需求分析、模型设计到开发实现与优化,确保应用的高效性与准确性; 3、对大模型应用的效果进行持续调优,通过数据分析与算法改进,提升模型的性能和用户体验; 4、带领项目成员进行端对端开发实际大模型智能体应用,制定项目计划、分配任务并指导项目成员完成开发工作; 5、与跨部门团队紧密合作,包括数据科学家、工程师、产品经理等,共同推动项目的顺利进行; 6、关注行业动态与技术趋势,及时引入新的算法技术和理念,为公司的技术发展提供前瞻性建议;负责相关技术文档的撰写与整理,分享技术经验与成果,促进团队整体技术水平的提升。 职位要求: 1、本科及以上学历,计算机科学、人工智能、数学等相关专业; 2、具有5年以上算法相关工作经验,有大模型、深度学习、强化学习等方面的丰富实践经验; 3、熟练掌握至少一种主流的深度学习框架,如TensorFlow、PyTorch等; 4、对大模型核心技术有深入的理解,包括但不限于模型架构、训练算法、优化策略等; 5、具备优秀的编程能力,熟练使用Python、C++等编程语言; 6、有良好的团队管理能力和沟通协作能力,能够带领团队高效完成项目开发任务;对人工智能技术充满热情,具有强烈的创新意识和解决复杂问题的能力。
-
职位职责: 团队介绍:飞书作为先进企业协作与管理平台,是字节跳动在B端与企业服务领域的重要布局之一。飞书整合即时沟通、日历、视频会议、云文档、企业邮箱、服务台功能于一体,助力团队高效协同,彻底告别零散的多套系统和割裂的协作体验。在组织管理层面,飞书还打造了飞书OKR、飞书招聘、飞书绩效等多款产品,助力组织成长。目前,飞书已成为众多先进团队的第一选择,服务了小米、“蔚小理”、华润、元气森林、三一重工等企业。 1、带领团队一起开发AI驱动的下一代企业应用引擎; 2、跟进前沿趋势,能清晰规划LLM应用方向的技术路线和团队布局; 3、统筹算法团队的研发迭代工作,并能带领团队拿到结果; 4、参与解决方案的制定,推动产品落地和PMF。 职位要求: 1、本科及以上学历,计算机、软件相关专业,具有扎实的算法基础; 2、精通深度学习的实践方法,有把深度学习模型应用到大型产品和服务中去的丰富经验、熟悉Bert、GPT3等预训练模型,对相关任务技术有深入理解(如模型训练、prompt设计、 instruct微调、模型工程化等); 3、熟悉LLM增强技术(SFT/向量召回/RLHF/Prompts等),有实践经验者优先; 4、具备算法团队的管理能力,能够紧跟当前的技术趋势,设计整个团队的技术架构,规划中长期发展路线。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
岗位职责: 1、负责全信贷生命周期评分模型产品的研发,包括但不限于反欺诈评分、申请评分、行为评分、催收评分、营销评分、额度模型等; 2、负责外部三方数据和模型的价值评估和应用; 3、持续开展模型性能监控与分析,合理设计并实施模型优化方案; 4、积极研究和跟进前沿大数据建模理论和技术,并有效应用保持产品和技术竞争优势; 5、针对行业主要需求,构思设计新数据产品为客户创造价值; 6、对分析师提供有效技术、业务指导,协同团队高效工作。 岗位要求: 1、数学、统计、运筹学、金融、计算机等数理专业硕士及以上学历,博士优先; 2、具有5年以上大型商业银行、专业咨询公司或金融科技公司同类岗位工作经历; 3、精通风险及营销建模方法论,掌握并熟练运用常用的统计分析方法和算法,有数据产品研发经历优先,能熟练运用数据挖掘工具,如Python,R等; 4、具备独立负责评分产品研发能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 5、了解国内外银行业金融机构业务体系以及国内外模型管理标准,拥有银行机构或国外咨询公司模型管理工作经验者优先; 6、较强的书面和口头沟通能力; 7、有团队管理经验优先。
-
岗位职责: 1、负责全信贷生命周期评分模型产品的研发,包括但不限于反欺诈评分、申请评分、行为评分、催收评分、营销评分、额度模型等; 2、负责外部三方数据和模型的价值评估和应用; 3、持续开展模型性能监控与分析,合理设计并实施模型优化方案; 4、积极研究和跟进前沿大数据建模理论和技术,并有效应用保持产品和技术竞争优势; 5、针对行业主要需求,构思设计新数据产品为客户创造价值; 6、对分析师提供有效技术、业务指导,协同团队高效工作。 岗位要求: 1、数学、统计、运筹学、金融、计算机等数理专业硕士及以上学历,博士优先; 2、具有5年以上大型商业银行、专业咨询公司或金融科技公司同类岗位工作经历; 3、精通风险及营销建模方法论,掌握并熟练运用常用的统计分析方法和算法,有数据产品研发经历优先,能熟练运用数据挖掘工具,如Python,R等; 4、具备独立负责评分产品研发能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 5、了解国内外银行业金融机构业务体系以及国内外模型管理标准,拥有银行机构或国外咨询公司模型管理工作经验者优先; 6、较强的书面和口头沟通能力; 7、有团队管理经验优先。
-
一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍: AI信创中心介绍: 彩讯股份“AI信创中心”是公司为抢占人工智能技术先机而成立的核心研发机构,是直接向CEO汇报的一级部门。中心汇集公司在人工智能、机器学习、知识图谱、自然语言处理等方面的人才,致力于将人工智能技术应用于公司各业务领域,实现产品、服务的智能化升级。 中心遵循“技术引领,应用驱动,市场导向”的发展策略,通过技术研究来挖掘人工智能的应用潜力,并在公司主营业务中进行示范与落地。 中心重点开展的技术和应用研究包括: 1)基于Transformer与BERT的对话系统与推荐系统。运用预训练语言模型与迁移学习技术,快速实现对话与推荐能力。 2)基于RL的智能决策与智能优化。研发强化学习技术在复杂决策环境中的应用,实现自动化智能决策。 3) 基于CVAE与StyleGAN等技术的智能创意与个性化推荐。生成图像、音乐、文本等创意素材,为个性化推荐提供丰富素材。 4)基于GAN与变分自编码器的客户画像与精准营销。利用生成对抗网络等算法,构建真实全面的数据与客户画像。 中心的研发重点在于企业级AI中间件与行业应用的研发,而非特定的机器学习模型。 中心的职责还包括: 1) 与高校、行业合作伙伴共建AI创新联合实验室,拓展产学研合作。 2) 发展与人工智能产业链上下游的合作伙伴关系,拓展公司的产业影响力。 3) 引领全公司各业务部门的产品与业务智能化转型升级。 4) 人工智能核心技术与产品的研发,不断提高公司的AI能力与实力。 中心将持续投入人工智能前沿技术与产品创新,以人工智能驱动公司各业务向智能化、个性化转型,实现产品服务的差异化和融合创新,为客户提供增强的体验与价值。中心必将成为公司实现产业升级与转型的核心动力之 三、岗位介绍: 【岗位职责】: 1、开源LLM的能力接入与部署; 2、负责LLM训练,模型微调; 3、SFT、RM、PPO等算法研究与优化; 4、负责前沿技术探索和落地。 【岗位要求】: 1.人工智能、计算机、数学/统计学等相关专业硕士及以上学历; 2.熟悉AI领域的前沿研究,具有丰富的研究经验,具备百亿级以上LLM 训练经验优先; 3.了解并行计算、CUDA、网络通信、系统优化、集群硬件架构等 HPC 相关的知识; 4.具有Prompt设计与微调经验优先; 5.熟悉SFT、RM、PPO原理,有实际实践经验者优先; 6.熟悉主流深度学习工具Pytorch,TensorFlow等; 7.具备良好的编程能力,熟练掌握 Python,数据结构和算法设计,熟悉 Linux / Unix 系统和 Shell 编程,熟练使用 Git; 8.在AI开源社区有贡献者优先; 9.在AI领域的核心期刊发表过论文优先; 10.有 TVM、TensorRT 等推理平台优化经验者优先; 11.了解并行推理技术的优先。 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
岗位职责: 1.针对大数据金融交易相关的to c业务,负责金融交易相关数据建设、数据分析和模型搭建工作; 2.推动数据、算法在客户经营各环节(如客户活跃、消费提升)的应用,为客户经营提供智能化基础; 3.通过数据、算法检测客户经营健康度,针对异常点开展专项深度分析,并为业务策略的制定和调整提供决策建议。 任职要求: 1.大学本科及以上学历,具备一定的数学基础,掌握基本的机器学习算法(如逻辑回归、svm、决策树); 2.熟悉使用python、pandas、sklearn等,能完成机器学习/深度学习的数据分析和建模,如会使用pyspark更佳; 3.具备数据分析落地或模型落地的相关经验; 4、具备较强的自我驱动力和专研精神,具备较好的团队协作能力。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
工作职责: 1. 使用大数据处理架构、机器学习模型进行海量数据挖掘,筛选高质量数据用于大语言模型训练; 2. 开发基于Hive、Spark、Slurm、K8s的大数据文本处理工具; 3. 负责大语言模型的量化,提升推理效率和稳定性。 任职资格: 1. 计算机、数学、统计、NLP等相关专业硕士及以上学历; 2. 有大数据处理、数据挖掘、NLP等相关项目两年以上工作经验; 3. 熟悉常用NLP算法,如GPT、BERT、FastText等; 4. 精通Linux、Hive、Spark、K8s,熟练使用Pytorch; 5. 具备扎实的专业基础和项目经验,良好的沟通能力和团队合作,认真负责、主动积极。
-
基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 1、参与端到端开发新的 AI 功能,在整个 ML stack 中身兼数职。 2、训练新的模型,在效果、规模和推理速度方面迭代到先进的技术水平。 3、设计能够评估模型不同角度的评估方案。 岗位基本需求 1、3+ 年使用深度学习框架(如 Pytorch、Tensorflow、Jax)的经验。 2、Python 能力优秀 具备以下者优先 之一即可 1、有训练过 generative models 的经验。 2、在设计、训练、评估和部署机器学习模型(尤其是LLM)方面有深刻的理解。 3、具有使用 CUDA 或 Triton 编写 GPU 内核的经验。 4、有使用现代类型化语言(如Golang)编写高性能服务的经验。 5、具备数学或者物理背景。 岗位亮点 1、获得在业内最前沿的大模型认知和技术积累,包括且不限于对 Scaling law、MoE、RLHF 、Long context 、CharacterAI 等技术方向的全新理解。 2、丰富的数据和GPU资源。
-
基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 1、负责端到端开发新的 AI 功能,在整个 ML stack 中身兼数职。 2、负责训练新的模型,在效果、规模和推理速度方面迭代到先进的技术水平。 3、设计能够评估模型不同角度的评估方案。 岗位基本需求 1、5+ 年使用深度学习框架(如 Pytorch、Tensorflow、Jax)的经验。 2、Python 能力优秀 具备以下者优先 之一即可 1、有训练过 generative models 的经验。 2、在设计、训练、评估和部署机器学习模型(尤其是LLM)方面有深刻的理解。 3、具有使用 CUDA 或 Triton 编写 GPU 内核的经验。 4、有使用现代类型化语言(如Golang)编写高性能服务的经验。 5、具备数学或者物理背景 岗位亮点 1、获得在业内最前沿的大模型认知和技术积累,包括且不限于对 Scaling law、MoE、RLHF 、Long context 、CharacterAI 等技术方向的全新理解。 2、丰富的数据和GPU资源。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。