-
岗位职责 ● 持续监测公司自研产品与国内外其他游戏产品的数据情况,密切跟踪用户反馈、用户行为、社媒与舆情动向等,按需求定期输出高质量的分析报告 ● 深入研究相关行业、市场、平台的发展状况与趋势,灵活运用多样化调研手段获取全面信息、精准数据及深度市场洞察 ● 持续追踪AI等新兴技术的发展态势,积极协同开发团队开展技术可行性测试工作,有效识别具有创新价值的技术应用案例,并输出专业且具有前瞻性的评估建议 ● 通过信息收集、数据分析、评估框架搭建和模型构建来为公司的重要决策提供支持 ● 根据需求为多个项目提供跨部门协作支持 岗位需求 ● 本科及以上学历,优秀的应届毕业生亦可 ● 深度游戏热爱者,有着丰富的PC/主机游戏经历 ● 扎实的数据分析能力,熟练使用数据分析工具及编程语言(如SQL、Python等) ● 优秀的组织协调能力,良好的计划和执行能力 ● 出色的人际沟通能力、优秀的口头与文字表达能力,以及敏锐的情感洞察力和共情能力 ● 良好的审美素养,对文档排版设计及阅读体验有极高自我要求 加分项 ● 具备优秀的英语能力,可独立完成国际游戏行业资讯的收集、交流及分析 ● 数学与编程功底扎实,有一定独立开发能力,擅于动手实践,能够自行编写必要工具 ● 拥有游戏行业调研、游戏数据分析或市场研究等相关领域的从业经验,熟悉行业研究流程与方法 ● 能够运用多样化且灵活的调研手段获取可靠的第一手信息,以及具备有效验证信息准确性的能力
-
招聘岗位:数据标注工作,都是00后90后沟通无压力,环境好。 工作时间:早9点-12点,13点-晚18点,固定周日休息。法定节假日正常休息。 工作薪资: 前三个月:2500+提成;第四个月开始:3000+提成 (可提前转正3000+提成),综合工资3-6k,上不封顶。优秀者岗位每月有额外岗位补贴。 工作内容:主要包括为机器学习模型提供标注数据。这些数据可以是文本、视频、图像、音频等内容,通过打上标签,便于机器理解和识别。例如,在无人驾驶汽车的数据标注中,数据标注工程师通过标注平台将采集到的数据进行分类与标注,使AI能够像人学驾照一样进行学习,最终实现自动避障和无人驾驶,简单轻松易学。 任职要求:大专学历及以上,年龄29岁以下,掌握计算机基本操作;前期有老师带你,接受新人(实习应届生) ,公司会安排统一进行(带薪)培训学习, 长期稳定。可提供住宿,可开实习证明,重要节假日发放礼品。 面试时间:每周一到周六,上午10-11点,下午1-5点。 联系电话:吴老师 136 9862 5504 公司地址:济南市章丘区双创基地8号楼7楼。
-
职位职责: 团队介绍:风控研发团队致力于解决各个产品(包括抖音、头条等)面临的各种黑灰产对抗问题,涵盖内容、交易、流量、账号等多个方面的风险治理领域。利用机器学习、多模态、大模型等技术对用户行为、内容进行理解从而识别潜在的风险和问题。不断深入理解业务和用户行为,进行模型和算法创新,打造业界领先的风控算法体系。 课题介绍: 1、课题目标:以风控数据为基础,优化提高大模型对于结构化数据(序列数据、图数据)的理解推理能力。 2、课题背景:风控场景下的数据主要为结构化数据,而目前大模型对于文本和图像的理解能力有了很大的提升,如何跟风控场景的非文本、图像数据(结构化数据)结合起来,让大模型能够更好的理解结构化的数据,是一个业界难题。面临着三大挑战 :(1)如何有效地将结构化的信息与nlp语义空间进行对齐,使得模型能够同时理解数据结构和语义信息;(2)如何用适当的指令使得大模型理解结构化数据中的结构信息;(3)如何赋予大语言模型图学习下游任务的逐步推理能力,从而逐步推断出更复杂的关系和属性。 3、课题内容:目前业界对结构化数据探索有:1、图数据理解相关GraphGPT:让大模型读懂图数据(SIGIR'2024) ;2、图数据RAG相关GraphRAG:Unlocking LLM discovery on narrative private data;3、序列数据理解相关StructGPT:面向结构化数据的大模型推理框架(EMNLP-2023)。目前的主要工作都是单一结构数据的理解,在风控场景下还面临几个问题:(1)对各种不同种类的的结构化数据融合理解怎么做,特别是融合图和序列数据的数据理解;(2)针对课题必要性中的问题;(3)对于下游任务的推理能力,目前的研究比较少,针对序列数据的推理能力研究非常少。 4、研究方向:大模型结构化数据理解、大模型结构化数据RAG、大模型思维链。 职位要求: 1、2026届及之后毕业,博士在读,计算机、网络安全、人工智能相关专业优先; 2、优秀的代码能力、扎实的数据结构和算法基础,熟练使用Python,熟悉Pytorch和TF者优先; 3、出色的问题定义、分析和解决能力,发表过CCF-A类论文,在AAAI、NeurIPS、SIGKDD、SIGIR等**期刊会议上发表论文者优先; 4、较强的抗压和沟通协作能力,对技术有追求,愿意和团队一起迎接挑战,追求创新。
-
职位职责: 团队介绍:风控研发团队致力于解决各个产品(包括抖音、头条等)面临的各种黑灰产对抗问题,涵盖内容、交易、流量、账号等多个方面的风险治理领域。利用机器学习、多模态、大模型等技术对用户行为、内容进行理解从而识别潜在的风险和问题。不断深入理解业务和用户行为,进行模型和算法创新,打造业界领先的风控算法体系。 课题介绍: 1、课题目标:以风控数据为基础,优化提高大模型对于结构化数据(序列数据、图数据)的理解推理能力。 2、课题背景:风控场景下的数据主要为结构化数据,而目前大模型对于文本和图像的理解能力有了很大的提升,如何跟风控场景的非文本、图像数据(结构化数据)结合起来,让大模型能够更好的理解结构化的数据,是一个业界难题。面临着三大挑战 :(1)如何有效地将结构化的信息与nlp语义空间进行对齐,使得模型能够同时理解数据结构和语义信息;(2)如何用适当的指令使得大模型理解结构化数据中的结构信息;(3)如何赋予大语言模型图学习下游任务的逐步推理能力,从而逐步推断出更复杂的关系和属性。 3、课题内容:目前业界对结构化数据探索有:(1)图数据理解相关GraphGPT:让大模型读懂图数据(SIGIR'2024) ;(2)图数据RAG相关GraphRAG:Unlocking LLM discovery on narrative private data;(3)序列数据理解相关StructGPT:面向结构化数据的大模型推理框架(EMNLP-2023)。目前的主要工作都是单一结构数据的理解,在风控场景下还面临几个问题:(1)对各种不同种类的的结构化数据融合理解怎么做,特别是融合图和序列数据的数据理解。(2)针对课题必要性中的问题;(3)对于下游任务的推理能力,目前的研究比较少,针对序列数据的推理能力研究非常少。 4、研究方向:大模型结构化数据理解、大模型结构化数据RAG、大模型思维链。 职位要求: 1、2026届及之后毕业,博士在读,计算机、网络安全、人工智能相关专业优先; 2、优秀的代码能力、扎实的数据结构和算法基础,熟练使用Python,熟悉Pytorch和TF者优先; 3、出色的问题定义、分析和解决能力,发表过CCF-A类论文,在AAAI、NeurIPS、SIGKDD、SIGIR等**期刊会议上发表论文者优先; 4、较强的抗压和沟通协作能力,对技术有追求,愿意和团队一起迎接挑战,追求创新。
-
办公室文职,数据标注工作 工作时间:早9点-12点,13点-晚18点,上6天休息1天,固定周日休息。法定节假日正常休息。 薪资如下: 前三个月:2500+提成;第四个月开始:3000+提成 (可提前转正为3000+提成),综合工资3-5k,上不封顶。优秀者岗位晋升有额外岗位津贴。 要求:大专学历及以上(优秀者开适当放宽学历),年龄30岁以下,掌握计算机基本操作,长期稳定。前期有老师带你,接受新人 ,公司安排统一进行(带薪)培训学习。 重要节假日发放礼品,接受应届生,实习生。入职1个月可开实习证明,可提供宿舍。 面试时间:每周一到周六,上午10点-11点,下午1点-5点。 地址:章丘区双创基地8号楼7楼。
-
岗位职责: 1、参与科技传播数据收集、舆论分析及相关资料整理等工作,参与撰写相关报告材料; 2、参与传播领域分析研究报告的数据整理、分析工作等。 任职要求: 1、本科及以上在校生,理工科专业、新闻编辑、情报专业优先; 2、工作严谨细心,逻辑清晰,具备良好自学能力; 3、知识面宽,关注科学及网络热点,有信息检索和鉴别能力,有一定的文字功底和新闻敏感性; 4、熟悉各类社交媒体,有传播数据分析相关经验的优先; 5、实习期不少于4个月,每周到岗工作不少于4天。 岗位介绍及联系方式: 工作地址:北京市西城区三里河路52号中国科学院 实习工资:80元-200元/天 注:实习表现特别优秀者,将有机会转正。 1、 此信息长期有效,简历请发送至*****************; 2、 简历标题为“应聘岗位名称-姓名-本科/硕士/博士在读-所在院校-专业-实习时间”。
-
职位描述: 大规模数据处理和分析,WEB工具开发,全栈开发,支持公司研发效率工具和数据平台建设 岗位职责: 大规模数据处理和分析,WEB工具开发,全栈开发,支持公司研发效率工具和数据平台建设 岗位要求: ● 计算机及相关专业,本科及以上 ● 有扎实的基本功,熟练掌握操作系统,网络,常用数据结构和算法 ● 有强烈的求知欲,责任感,独立思考, 独立分析和解决问题的能力 ● 对大规模数据处理技术,WEB 全栈技术有浓厚的兴趣 ● 有一定的英文技术文档阅读能力 ● 爱玩游戏,喜欢钻研技术,良好的沟通和表达能力 有以下经验者更佳 : ● 有WEB开发,大规模数据处理等开发经验优先 ● 有WEB前端框架 (如:VUE等) 和 Linux系统下后台(如Go/Python等)开发经验优先 ● 掌握至少一门编译型语言和一门脚本型语言更佳 我们也喜欢 : 有较高审美水平,爱好重度游戏的玩家
-
1.参与互联网金融、互联网保险、电商、社交、游戏的用户获客业务,协助团队通过数据分析找出潜在趋势、特点、异常等,对精细化运营提供支持; 2.用户运营数据分析支撑,通过用户特征、行为数据、产品转化数据等对业务进行挖掘和分析,挖掘数据并进行数据的统计建模分析; 3.结合业务特点,探索并建立分析主题,对数据进行深度分析和挖掘,输出可读性强的分析报告;针对不同产品出具分析报告,支持各产品的数据分析,并提出优化策略; 4.针对产品、数据模型建立直观的评价指标体系,根据指标体系,指导运营和业务; 5.将数据分析成果应用于实践,并持续进行跟踪与优化; 6.制定数据分析的工作流程和规范,协助建立分析平台; 7.根据业务要求,结合实际工作需要,协助挖掘新的数据沉淀机会,并据此产生创新应用价值。 ### 任职要求: 1.**211、985本科及以上学历,计算机或数理统计相关专业背景,能够持续实习至少3-6个月以上,有意向实习后转正者优先; 2.至少掌握一种编程语言及Linux系统的基本使用,且具有良好的编码规范,熟练使用Python优先; 3.熟悉关系型数据库及相关使用,熟练掌握SQL的使用,了解Hive数据仓库及相关工具使用优先; 4.熟悉各类数理统计工具,具有机器学习与深度学习相关算法经验优先; 5.具有互联网金融、互联网保险、电商、社交、游戏等平台类运营、用户运营经验或产品运营相关实习经验优先; 6.具有良好的学习能力、时间管理意识、沟通能力,工作积极主动、有责任心,有较强的逻辑分析能力;
-
职位概述: 负责客户菜单录入、客户菜单下单给供应商、成本导出、供应商成本统计等工作,确保订单的准确性和及时性。该岗位需要与多个部门和供应商进行沟通协调,具备较强的沟通、协调和解决问题的能力。 主要职责: 1. 负责客户菜单录入,确保信息的准确性和完整性。 2. 负责客户下单给供应商,跟踪订单的执行情况,确保供应商按时交货。 3. 负责成本导出,根据订单需求计算成本,提供给客户和供应商。 4. 负责供应商成本统计,定期汇总供应商的交货情况、价格等信息,为管理层提供决策依据。 5. 协助其他部门完成相关订单处理工作,确保流程的顺畅。 6. 维护办公室文件和数据的安全性,确保信息的保密性。 职位要求: 1. 大专及以上学历,熟悉办公软件操作,如Excel、Word、PPT等。 2. 具备良好的沟通协调能力,能够与不同部门和供应商进行有效沟通。 3. 具备较强的责任心和团队合作精神,能够承担工作压力。 4. 具备较强的解决问题的能力,能够及时处理工作中的问题。 5. 具备良好的服务意识,能够根据客户需求调整工作安排。 工作时间:月休4天,根据客户放假时间放假。 加分项: 1. 有相关订单处理或物流管理经验者优先。 2. 具备一定的数据分析和报告编写能力。 3. 对供应链管理或食品行业有浓厚兴趣,愿意在该领域深入发展。 薪资待遇和福利: 该岗位薪资根据工作经验、能力、职位职责等因素综合确定老哥工资,包吃
-
岗位职责: 1. 负责对客户数据进行收集、整理和分析,为客户提供有价值的信息。 2. 与客户保持良好的沟通,了解客户需求,并提供相应的解决方案。 3. 协助团队完成销售目标,通过数据分析提高销售效率。 任职要求: 1. 具备良好的数据分析能力,能够准确把握客户数据的核心信息。 2. 善于与人沟通,能够有效地与客户建立联系,解决问题。 3. 具有团队合作精神,能够与团队成员协作,共同完成工作任务。
-
招聘人数:50人 急!急!急! 这个岗位对实习生非常友好哦,任务很容易完成,熟悉了每天只需要1-2小时处理工作任务,有大量时间准备毕业论文或者各类考试哦!工作、学习、赚钱三不误哦!入职可签三方协议,工作满6个月可以开具实习证明,欢迎各位小伙伴的加入。 以下两个岗位均为国内互联网大厂提供,为目前及未来最火的,最有发展前景的AI人工智能处理基础数据,数据实时变化,需要实时更新,可长期做下去。 岗位发展方向:数据标注工程师、数据处理技术组长、数据处理项目项目组长、数据处理项目讲师等. 岗位一:2D、3D无人驾驶项目(即AI训练师)工作内容:根据2D街景图片对目标物进行拉框处理,备注状态。根据3D点状云图进行拉框处理,备注目标物状态。项目以计件为主,考核单件完成的质量。这个适合社招生,薪资更高哦! 岗位二:内容审核项目(即数据标注师)工作内容:根据项目规则人工审核各平台视频、图片、音频、文本是否违法,是否涉黄涉政,是否符合规则要求,让AI具备人工审核一样的审核思维,最终实现自动审核。项目以计时为主,考核完成的题量,做题正确率等。适合实习生 任职要求: 1、男女不限,专业不限(有培训,且都能听懂并能操作),中专以上学历,接受应届毕业生,接受计算机小白; 2、会使用电脑,立体三维空间好,不晕3D; 3、做事细心,有耐心,有责任心; 4、工作时长不低于6个月。 岗位福利:全职坐班,电脑操作,不用外出。 岗位一:计件项目 1、免费培训2-3天,14天试岗期,补贴50元/天。 2、薪资结构:保底薪资2000+200(住宿补贴)+200(全勤)+计件提成,多劳多得。新手综合薪资3000-5000元/月,熟手薪资:6000-8000元/月 岗位二:计时项目 1、3次项目培训机会,免费培训7-14天,培训通过补贴50元/天 2、薪资结构:保底薪资2000*绩效*出勤天数+200(住宿补贴)+200(全勤) 工作时间:9:00-18:30 月休4天,法定节假日正常休 新增三班倒:晚班13:00-22:30,补贴10元/天,夜班:15:00-24:30,补贴20元/天 工作地点:广东韶关武江区粤港澳大湾区数据应用产业园A栋百度智能云
-
会基本电脑操作办公软件,整理文件及资料,办理入职,离职交接手续,负责人员调动安排,人员招聘,对待工作积极认真负责,前期可以接受无经验者,有老员工带,五险一金,周末休,包吃住,节假日放假
-
负责整理资料和做文档 上班时间:下午1点到晚上9点中间休息一个小时 包吃包住五险一金社保 每个月20号发工资
-
会讲普通,肯学肯做,认真学习,礼貌礼仪,
-
岗位职责: 1.负责电商平台数据的收集、分析和处理,包括但不限于用户行为、交易记录、商品信息等数据源的整合; 2.协同爬虫工程师,设计高效的数据获取方案,确保数据来源的完整性、时效性与合规性; 3.对原始数据进行清洗、去重、标准化等预处理操作,并建立数据质量评估体系; 4.设计和执行数据标注策略,协助构建高质量的训练数据集; 5.基于时间序列分析、异常检测、聚类等算法,对数据进行深入分析,支持业务决策与模型优化; 6.编写数据清洗与分析调研报告,输出可行性研究结果,优化数据处理流程; 7.负责数据存储、管理与计算架构的优化,提高大规模数据处理的效率和稳定性; 8.持续跟进行业最新的AI和数据工程技术,探索适用于电商数据分析的新方法并应用到实际项目中。 任职要求: 1.本科及以上学历,计算机科学、数据科学、人工智能、统计学或相关专业; 2.具备扎实的数据结构和算法基础,熟练掌握Python/Java/Scala/R 其中至少一种编程语言; 3.熟悉常见数据处理与分析工具,如Pandas、NumPy、SQL、Spark、Flink等; 4.具备数据爬取、存储、清洗、标注、分析的全流程经验,有数据治理能力优先; 5.了解机器学习、时间序列分析、异常检测、聚类分析等技术,并有实际项目经验; 6.具备较强的逻辑思维能力、数据敏感度和业务理解能力,能够从数据中挖掘业务价值; 7.有电商行业相关数据处理经验者优先,如用户画像、推荐系统、销售预测等; 8.具备良好的沟通能力和团队协作精神,能与数据工程、算法、业务团队高效合作。 加分项: 有大规模数据处理和分布式计算经验; 具备MLOps、数据自动化处理的相关经验; 了解深度学习框架(TensorFlow、PyTorch)并在数据处理领域有应用经验。
热门职位