海量数据面试题整理(转)

合集下载

数据岗位招聘面试题与参考回答(某大型集团公司)

数据岗位招聘面试题与参考回答(某大型集团公司)

招聘数据岗位面试题与参考回答(某大型集团公司)面试问答题(总共10个问题)第一题题目:请简要描述您对数据岗位的理解,以及您认为自己具备哪些与数据岗位相关的技能和经验?答案:1.理解描述:•数据岗位,顾名思义,是指专门负责数据收集、整理、分析、处理和解读的岗位。

它要求从业者不仅要有扎实的数据分析能力,还要具备良好的数据敏感度和逻辑思维能力。

•在我看来,数据岗位不仅仅是简单地处理数据,更是通过数据来发现规律、预测趋势、辅助决策的重要角色。

它需要将数据转化为有价值的信息,从而为企业的战略规划和运营管理提供支持。

2.相关技能和经验:•数据分析技能:熟练掌握Excel、SQL、Python等数据分析工具,能够进行数据清洗、整理、分析和可视化。

•编程能力:具备一定的编程基础,能够使用Python、R等编程语言进行数据挖掘和机器学习。

•统计学知识:了解统计学的基本原理和方法,能够运用统计模型进行数据分析和预测。

•逻辑思维:具备良好的逻辑思维能力,能够从海量数据中提炼出有价值的信息。

•沟通能力:能够清晰、准确地表达分析结果,为决策者提供有针对性的建议。

解析:这道题目考察应聘者对数据岗位的理解程度以及自身技能和经验的匹配度。

在回答时,应聘者应首先阐述自己对数据岗位的理解,然后结合自己的实际情况,详细列举自己具备的相关技能和经验。

以下是一些回答时的注意事项:1.结合自身情况:回答时,要结合自己的实际经验,避免空洞的理论描述。

2.突出重点:在列举技能和经验时,要突出与数据岗位相关的关键能力,如数据分析、编程、统计学等。

3.具体实例:可以结合具体的项目或案例,展示自己运用相关技能解决问题的能力。

4.持续学习:强调自己对于新技能和知识的持续学习态度,以适应不断变化的数据岗位需求。

第二题题目:请描述一下您在数据分析项目中遇到过的一个挑战,以及您是如何解决这个挑战的。

答案:在之前的一个数据分析项目中,我面临的挑战是处理一个包含大量缺失值的数据集。

大数据行业面试题目及答案

大数据行业面试题目及答案

大数据行业面试题目及答案一、概述大数据行业在近年来迅速发展,对于求职者来说,面试是进入这个行业的重要一步。

本文将为大家介绍一些常见的大数据行业面试题目及其答案,希望能够帮助大家更好地准备与应对面试。

二、技术问题1. 什么是大数据?大数据的特点是什么?大数据是指规模庞大、复杂度高且难以通过传统方式进行处理的数据集合。

其特点包括数据量巨大、多样性、高速度和价值密度低。

2. 大数据处理的常用方法有哪些?常用的大数据处理方法包括分布式存储与计算、数据挖掘和机器学习、并行计算和分布式文件系统等。

3. 请介绍一下Hadoop生态系统。

Hadoop生态系统是由Apache基金会开发和维护的一套开源大数据处理平台。

它包括HDFS(分布式文件系统)、MapReduce(分布式计算框架)和YARN(资源管理器)等核心组件。

4. 什么是MapReduce?它的工作原理是什么?MapReduce是一种分布式计算模型,其工作原理基于分治法和函数式编程思想。

它将任务分解成多个子任务,并通过Map和Reduce两个阶段完成数据的处理和计算。

5. 数据清洗在大数据处理中的重要性是什么?数据清洗是指通过对数据集进行去噪、去重、填充缺失值等处理,使数据变得规整、干净、可用。

在大数据处理过程中,数据清洗是确保数据质量和结果准确性的重要步骤。

三、业务问题1. 你认为大数据对于企业有哪些价值?大数据可帮助企业进行市场分析、精准营销、客户关系管理、商业智能等方面的工作,提升企业的运营效率和决策能力,创造更大的商业价值。

2. 在大数据分析中,常用的数据挖掘技术有哪些?常用的数据挖掘技术包括分类、聚类、关联规则挖掘、预测和异常检测等。

3. 请介绍一下数据湖(Data Lake)的概念和作用。

数据湖是指以一种原始、未经加工和结构化的方式存储大量数据的存储库。

它可以集中存储各种类型和格式的数据,为数据科学家和分析师提供快速而灵活的查询和访问,以支持数据分析和决策。

大数据方案面试题目及答案

大数据方案面试题目及答案

大数据方案面试题目及答案一、题目:请根据以下情景描述,设计一个大数据方案,提供可行的解决方案,并解释其实施步骤和相关技术工具。

情景描述:某互联网公司拥有海量用户,每天生成的数据量庞大,包括用户行为数据、服务器日志、社交网络数据等。

该公司希望通过对这些大数据进行挖掘,为产品改进、用户画像、市场营销等方面提供支持。

要求:1. 分析并说明如何收集、存储和处理这些大数据。

2. 提出针对以上数据的应用场景,并描述需要采用的技术工具。

3. 阐述如何保证数据安全和隐私保护。

二、解决方案:1. 数据收集、存储和处理针对大数据的收集,可以使用流式处理技术,如Apache Kafka,用于高吞吐量的实时数据流处理。

通过构建数据管道,将各种数据源的数据实时导入到数据湖中,例如Hadoop分布式文件系统(HDFS)。

对于大数据的存储,可以采用分布式存储系统,如Hadoop的HBase,用于高可靠性的海量数据存储和快速检索。

数据可以按照数据类型和业务需求进行合理划分和存储,提高查询效率。

大数据的处理可以采用Apache Spark进行分布式计算和数据处理。

Spark提供了强大的数据分析和机器学习库,可用于处理海量数据,实现复杂的数据挖掘任务。

2. 应用场景和技术工具场景一:用户行为数据分析通过收集用户行为数据,使用Spark的机器学习库进行用户画像分析。

可以运用聚类算法、关联规则挖掘等技术,发现用户的兴趣偏好和行为习惯,为产品改进和个性化推荐提供支持。

场景二:服务器日志监控使用Kafka实时收集服务器日志,并将数据导入HBase进行存储。

通过Spark Streaming技术对日志数据进行实时监控和异常检测,及时发现并解决服务器故障。

场景三:社交网络数据分析收集社交网络平台上的用户数据,使用GraphX图计算引擎进行社交网络分析。

通过建立用户关系图,分析用户社交圈子、影响力等,为精准的社交推荐和营销提供依据。

3. 数据安全和隐私保护为了保证数据的安全性和隐私保护,可以采取以下措施:- 数据加密:对敏感数据进行加密处理,确保数据在传输和存储过程中不被窃取。

数据岗位招聘面试题与参考回答

数据岗位招聘面试题与参考回答

招聘数据岗位面试题与参考回答面试问答题(总共10个问题)第一题题目:请您描述一下您对数据分析师这一岗位的理解,以及您认为作为一名优秀的数据分析师应该具备哪些核心能力?答案:作为一名数据分析师,我认为我的主要职责是从大量数据中提取有价值的信息,通过数据挖掘、统计分析等方法,帮助公司或团队做出更加明智的决策。

以下是我认为优秀的数据分析师应具备的核心能力:1.数据分析技能:熟练掌握至少一种数据分析软件(如Excel、SPSS、R、Python等),能够进行数据清洗、数据预处理、数据分析、数据可视化等工作。

2.统计知识:具备扎实的统计学基础,能够正确运用各种统计方法,如描述性统计、推断性统计、假设检验等。

3.业务理解:对所从事的行业有深入的理解,能够将数据分析与业务需求相结合,提出有针对性的分析建议。

4.沟通能力:能够清晰、准确地表达分析结果,无论是通过书面报告还是口头汇报,都要确保信息传递的有效性。

5.解决问题的能力:面对复杂的问题时,能够运用逻辑思维和创造性思维找到解决方案。

6.持续学习:数据分析和统计方法在不断进步,优秀的数据分析师应具备持续学习的态度,不断更新自己的知识库。

解析:这一题旨在考察应聘者对数据分析师岗位的理解程度,以及对所需能力的自我评估。

优秀的数据分析师不仅需要具备扎实的技术能力,还需要具备良好的业务敏感度和沟通技巧。

答案中提到的各项能力都是数据分析师岗位的关键要求,通过这样的回答,面试官可以初步判断应聘者的专业背景和综合素质。

第二题题目:请描述一下您在过去的工作或项目中,如何处理过一次数据清洗的难题?您遇到了哪些挑战,又是如何克服这些挑战的?答案:在过去的一个项目中,我负责对一家大型电商平台的用户数据进行清洗和分析。

在数据清洗过程中,我遇到了以下挑战:1.数据质量问题:原始数据中存在大量的缺失值、异常值和重复数据。

2.数据格式不一致:不同来源的数据格式不统一,给数据整合带来了困难。

大数据人才面试题目及答案

大数据人才面试题目及答案

大数据人才面试题目及答案随着大数据技术的迅猛发展,对于大数据人才的需求也越来越高。

而在求职过程中,面试是一个非常重要的环节,通过面试不仅可以了解候选人的专业知识和能力,还能对其适应能力和解决问题的能力进行评估。

以下是一些常见的大数据人才面试题目及其答案,希望能为您准备面试提供帮助。

1. 介绍一下大数据的概念和特点。

大数据是指规模庞大、结构复杂、难以通过传统的数据处理方法获取、存储、管理和分析的数据集合。

其特点包括以下几个方面:- 体量大:大数据的数据量很大,以TB、PB、EB为单位。

- 多样性:大数据来源多样,包括结构化数据、半结构化数据和非结构化数据。

- 时效性:大数据的生成速度快,需要及时处理和分析。

- 价值密度低:大数据中包含了很多无效信息,需要通过技术手段进行提取和筛选。

2. 请介绍一下Hadoop和Spark,它们在大数据处理中的作用是什么?Hadoop是一个分布式的计算框架,主要用于存储和处理大规模数据集。

它的核心组件包括HDFS(分布式文件系统)和MapReduce(分布式计算)。

Hadoop借助分布式存储和计算的特点,可以快速处理大规模的数据,适用于批处理场景。

Spark是一个快速、通用的大数据处理引擎,它提供了内存计算的能力,能够加速数据处理的速度。

相比于Hadoop的MapReduce模型,Spark使用了更高效的计算模型,可以在内存中进行数据操作,大大提高了处理效率。

Spark还提供了丰富的API,支持多种编程语言,并且支持实时流式数据处理。

3. 请说明大数据处理中的数据清洗和数据融合的过程。

数据清洗是指对原始数据进行筛选、去噪、去重、填充缺失值等预处理操作,以确保数据的准确性和完整性。

数据清洗的过程包括以下几个步骤:- 数据筛选:根据需求选择需要处理的数据。

- 数据去噪:删除异常、错误的数据,保留有效数据。

- 数据去重:去除重复的数据记录。

- 缺失值填充:对存在缺失值的数据进行填充,以保证数据的完整性。

面试数据营运岗面试题目(3篇)

面试数据营运岗面试题目(3篇)

第1篇一、自我介绍及职业规划1. 请简单介绍一下自己,包括教育背景、工作经历等。

解析:通过这个问题,面试官想了解你的基本情况,考察你的表达能力。

在回答时,要突出自己的优势和特长,与数据运营岗位的相关性。

2. 你为什么选择数据运营岗位?解析:这个问题考察你对数据运营岗位的理解和兴趣。

你可以从个人兴趣、职业发展、行业前景等方面进行回答。

3. 你对自己的职业规划是什么?解析:这个问题考察你的职业目标和规划能力。

在回答时,要展示出你对未来职业发展的明确规划和目标。

二、数据基础知识4. 请简述数据分析的基本步骤。

解析:这个问题考察你对数据分析流程的了解。

在回答时,要涵盖数据收集、数据预处理、数据分析、数据可视化和报告撰写等步骤。

5. 请列举几种常用的数据分析方法。

解析:这个问题考察你对数据分析方法的掌握程度。

在回答时,可以列举描述性统计分析、回归分析、聚类分析等常用方法。

6. 什么是数据挖掘?请简述数据挖掘的基本流程。

解析:这个问题考察你对数据挖掘的理解。

在回答时,要解释数据挖掘的概念,并阐述其基本流程,如数据预处理、特征选择、模型训练、模型评估等。

三、数据运营技能7. 请简述数据运营的工作内容。

解析:这个问题考察你对数据运营岗位的理解。

在回答时,要涵盖数据收集、数据分析、数据产品化、数据优化等环节。

8. 请举例说明你如何利用数据分析来优化产品。

解析:这个问题考察你的实际操作能力。

在回答时,可以结合具体案例,说明你如何通过数据分析发现问题、提出解决方案并优化产品。

9. 请简述数据可视化的重要性,并列举几种常用的数据可视化工具。

解析:这个问题考察你对数据可视化的认识。

在回答时,要阐述数据可视化在数据运营中的重要性,并列举常用的工具,如Tableau、Power BI、Excel等。

10. 请简述如何进行用户画像分析。

解析:这个问题考察你对用户画像的理解。

在回答时,要解释用户画像的概念,并阐述如何通过数据分析构建用户画像。

大数据常考的笔试面试题

大数据常考的笔试面试题

大数据常考的笔试面试题(一):一:位图处理海量数据【题目1】(腾讯公司)给40亿个不重复的unsigned int的整数,没排过序的,然后再给一个数,如何快速判断这个数是否在那40亿个数当中?方案一:40 000 000 00 * 4 = 16 000 000 000 = 16G,把这么多数全部加载到内存中是不可能,我们可以考虑用bitmap,每一位表示相对应的数字,1表示存在,0表示不存在,只要512MB内存,从文件中读取40亿数字,设置相对应的比特位,判断要查询的那个数相对应的比特位是否为1,若为1表示存在否则表示不存在。

方案二:这里我们把40亿个数中的每一个数用32位的二进制来表示。

假设这40亿个数开始放在一个文件中,然后将这40亿个数分成两类:1.最高位为02.最高位为1并将这两类分别写入到两个文件中,其中一个文件中数的个数<=20亿,而另一个>=20亿(这相当于折半了);与要查找的数的最高位比较并接着进入相应的文件再查找。

再然后把这个文件为又分成两类:1.次最高位为02.次最高位为1并将这两类分别写入到两个文件中,其中一个文件中数的个数<=10亿,而另一个>=10亿(相当于折半);与要查找的数的次最高位比较并接着进入相应的文件再查找。

......以此类推,就可以找到了,而且时间复杂度为O(logn),方案2完成。

【题目2】(July整理) 在2.5亿个整数中找出不重复的整数,注,内存不足以容纳这2.5亿个整数。

方案一:我们同样可以用bitmap来解决这个问题,但是现在每个数可能有三种状态,不存在,只有一个,重复存在,所以我们想到用2个比特位来表示,00表示这个数不存在,01表示这个数存在一次,10表示这个数存在多次,需要内存:250 000 000 * 4 = 1000 000 000 = 10G/16 < 1G 从文件中读取这2.5亿个整数,如果是第一次存在则从00变成01,如果是多次存在,依旧是10,不变,最终扫描位图,输出比特位为01的整数就行。

大数据高级面试题大全

大数据高级面试题大全

大数据高级面试题大全一、介绍大数据领域呈现爆发式增长,对于大数据专业人才的需求日益增加。

针对该领域的高级面试,本文整理了一些常见的大数据高级面试题,以帮助求职者更好地准备面试。

二、数据处理与存储1. 请简要介绍大数据的特点以及大数据处理的挑战。

大数据的特点包括数据量大、速度快、种类多、价值密度低。

大数据处理的挑战主要体现在数据采集、存储、处理和分析等方面,如数据清洗、分布式存储、并行计算等问题。

2. 请说明分布式文件系统的特点及应用场景。

分布式文件系统具有高可靠性、高容错性、高扩展性等特点。

它可以在多个节点上存储数据,适用于大规模数据存储和访问的场景,如云计算、大规模数据存储和分析等。

3. 请介绍Hadoop和Spark的区别。

Hadoop是一个基于MapReduce的分布式计算框架,适用于批处理任务,它通过将数据分成小块进行并行处理。

而Spark是一个内存计算框架,适用于迭代计算和实时数据处理任务,它将数据存储在内存中进行快速计算。

4. 请简要介绍NoSQL数据库及其特点。

NoSQL数据库是指非关系型数据库,相比于传统关系型数据库,它具有高可扩展性、高性能、灵活的数据模型等特点。

NoSQL数据库适用于大规模数据存储和访问的场景,如社交网络、日志分析等。

三、大数据处理与分析1. 请介绍常用的数据处理工具和技术。

常用的数据处理工具和技术包括Hadoop、Spark、Hive、Pig、Kafka等。

它们可以用于大规模数据的处理、分析和挖掘。

2. 请简要介绍Hive和Pig的区别。

Hive是一个基于Hadoop的数据仓库工具,它提供了类SQL查询和数据分析的功能。

Pig是一个用于大规模数据分析的平台,它提供了一种类似于脚本语言的数据流语言。

3. 请说明数据挖掘的基本流程及常用算法。

数据挖掘的基本流程包括数据清洗、数据集成、数据选择、数据变换、数据挖掘、模型评价等步骤。

常用的数据挖掘算法包括分类算法、聚类算法、关联规则算法等。

十道海量数据处理面试题 zz

十道海量数据处理面试题 zz

十道海量数据处理面试题zz 十道海量数据处理面试题(zz)2011-06-07 09:07作者:July、youwang、yanxionglu。

时间:二零一一年三月二十六日说明:本文分为俩部分,第一部分为10道海量数据处理的面试题,第二部分为10个海量数据处理的方法总结。

有任何问题,欢迎交流、指正。

出处:第一部分、十道海量数据处理面试题1、海量日志数据,提取出某日访问百度次数最多的那个IP。

首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。

注意到IP是32位的,最多有个2^32个IP。

同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。

然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。

或者如下阐述(雪域之鹰):算法思想:分而治之+Hash 1.IP地址最多有2^32=4G种取值情况,所以不能完全加载到内存中处理;2.可以考虑采用"分而治之"的思想,按照IP地址的Hash(IP)%1024值,把海量IP日志分别存储到1024个小文件中。

这样,每个小文件最多包含4MB个IP地址;3.对于每一个小文件,可以构建一个IP为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个IP地址;4.可以得到1024个小文件中的出现次数最多的IP,再依据常规的排序算法得到总体上出现次数最多的IP;2、搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。

假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个。

一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。

),请你统计最热门的10个查询串,要求使用的内存不能超过1G。

大数据方向_面试题目(3篇)

大数据方向_面试题目(3篇)

第1篇一、基础知识与理论1. 请简述大数据的概念及其与传统数据处理的区别。

2. 请解释什么是Hadoop,并简要说明其组成部分。

3. 请简述MapReduce的核心思想及其在Hadoop中的应用。

4. 请描述HDFS(Hadoop分布式文件系统)的工作原理及其优势。

5. 请说明YARN(Yet Another Resource Negotiator)的作用及其在Hadoop中的地位。

6. 请解释什么是Spark,以及它与传统的大数据处理技术相比有哪些优势。

7. 请描述Spark的架构及其核心组件。

8. 请说明什么是Hive,并简要介绍其作用。

9. 请解释什么是HBase,以及它在大数据中的应用场景。

10. 请说明什么是NoSQL,并列举几种常见的NoSQL数据库及其特点。

二、Hadoop生态系统1. 请介绍Hadoop生态系统中常用的数据处理工具,如Hive、Pig、Spark等。

2. 请说明Hadoop生态系统中常用的数据分析工具,如Elasticsearch、Kafka、Flume等。

3. 请解释Hadoop生态系统中数据存储解决方案,如HDFS、HBase、Cassandra等。

4. 请描述Hadoop生态系统中常用的数据仓库解决方案,如Apache Hudi、Delta Lake等。

5. 请说明Hadoop生态系统中常用的数据可视化工具,如Tableau、Power BI、D3.js等。

三、大数据技术1. 请简述大数据技术中的数据清洗、数据集成、数据存储、数据挖掘等基本概念。

2. 请介绍大数据技术中的数据挖掘算法,如聚类、分类、关联规则等。

3. 请说明大数据技术中的数据可视化方法及其在数据分析中的应用。

4. 请描述大数据技术中的实时数据处理技术,如流处理、事件驱动等。

5. 请介绍大数据技术中的机器学习算法及其在数据分析中的应用。

四、大数据应用案例1. 请列举大数据技术在金融、医疗、电商、物联网等领域的应用案例。

史上最全的大数据面试题,大数据开发者必看

史上最全的大数据面试题,大数据开发者必看

史上最全的大数据面试题,大数据开发者必看在大数据领域,面试常常是求职者获取工作机会的重要环节。

面试官会针对各个方面提问,从技术知识到项目经验,从算法能力到数据处理能力,全方位考察候选人的综合素质。

为了帮助大数据开发者准备面试,本文整理了一份史上最全的大数据面试题,供参考使用。

一、Hadoop基础知识1·Hadoop的核心组件有哪些?分别简要介绍。

2·HDFS的特点和工作原理是什么?3·MapReduce的工作原理是什么?举例说明MapReduce的运行流程。

4·Hadoop集群的搭建步骤和注意事项是什么?5·Hadoop环境中如何进行数据备份和恢复操作?二、Hadoop生态系统1·Hive和HBase有什么区别?适用场景分别是什么?2·Pig和Hive的功能和使用场景有何异同?3·Sqoop和Flume的作用及使用场景有哪些?4·ZooKeeper的作用是什么?简要介绍其应用场景。

5·Spark和Hadoop的区别是什么?它们之间如何共同工作?三、大数据处理技术1·数据采集的方法有哪些?请简要说明每种方法的原理和适用场景。

2·数据清洗的过程和步骤有哪些?如何处理用户输入的脏数据?3·数据存储有哪些方式?请简要介绍每种方式的特点和适用场景。

4·数据挖掘常用的算法有哪些?请简要说明每种算法的原理和适用场景。

5·数据可视化的方法和工具都有哪些?请简要介绍每种方法和工具的特点和适用场景。

四、大数据实战项目1·请简要介绍你参与过的大数据项目,包括项目背景、使用的技术和取得的成果。

2·在项目中如何解决数据倾斜的问题?请具体描述解决方案。

3·在项目中如何保证数据的安全性和隐私性?4·在处理大规模数据时,如何优化性能和提高效率?5·请描述一个你在项目中遇到的难题,并介绍你是如何解决的。

大数据面试题及答案

大数据面试题及答案

大数据面试题及答案在大数据领域求职面试中,面试官通常会提问一系列与大数据相关的问题,以了解应聘者对于大数据概念、技术和应用的理解。

本文将列举一些常见的大数据面试题,并提供相应的答案,帮助读者更好地准备和应对大数据面试。

一、大数据的定义及特征1. 请简要解释什么是大数据?大数据指的是规模庞大、结构复杂、速度快速增长的数据集合。

这些数据量大到无法使用传统的数据处理工具进行存储、管理和分析。

2. 大数据有哪些特征?大数据的特征主要包括4个方面:数据量大、数据来源多样、数据处理速度快、数据结构复杂。

3. 大数据的应用领域有哪些?大数据在多个领域都有应用,包括但不限于金融、电子商务、物流、医疗、社交媒体、智能交通、城市管理等。

二、大数据处理及存储技术4. 大数据的处理流程是怎样的?大数据的处理流程通常包括数据获取、数据存储、数据清洗、数据分析和数据可视化等环节。

5. 大数据存储有哪些技术?常见的大数据存储技术包括关系型数据库、NoSQL数据库、分布式文件系统如Hadoop HDFS等。

6. 请简要介绍Hadoop框架。

Hadoop是一个开源的分布式计算框架,它包括Hadoop Distributed File System(HDFS)和MapReduce计算模型。

HDFS用于大规模数据的存储,而MapReduce用于数据的处理和计算。

三、大数据分析与挖掘7. 大数据分析的流程是怎样的?大数据分析的流程通常包括数据预处理、数据挖掘、模型建立、模型评估和结果应用等环节。

8. 大数据分析常用的算法有哪些?大数据分析常用的算法包括关联规则挖掘、聚类分析、分类算法、回归算法、时序分析等。

9. 请简要介绍机器学习和深度学习在大数据分析中的应用。

机器学习和深度学习是大数据分析中常用的技术手段,它们可以通过训练模型从大数据中学习,并根据学习结果进行预测、分类和优化等任务。

四、大数据安全与隐私10. 大数据安全存在哪些风险?大数据安全面临的风险包括数据泄露、数据篡改、数据丢失、隐私保护等问题。

大数据常见面试题

大数据常见面试题

大数据常见面试题1. 什么是大数据?大数据是指规模庞大、种类繁多的数据集合,无法使用传统的数据处理工具进行处理和管理。

大数据通常具备四个特征,即海量性、高速性、多样性和价值密度低。

2. 大数据的特点有哪些?大数据的特点包括:数据量巨大,存储和处理难度大;数据来源多样,包括结构化数据和非结构化数据;数据生成速度快,需要实时或近实时分析;数据质量不一,存在噪音和异常数据。

3. 大数据的处理流程是什么?大数据处理流程一般包括数据采集、数据存储、数据清洗、数据分析和数据可视化等步骤。

首先,通过各种方式采集数据,包括传感器、日志文件、社交媒体等;然后将数据存储在分布式文件系统或数据库中;接下来,对数据进行清洗和预处理,包括去重、去噪、归一化等;然后通过各种算法和工具对数据进行分析和挖掘;最后,将分析结果以可视化方式展示,帮助决策者理解数据并做出决策。

4. 大数据处理技术有哪些?大数据处理技术包括分布式存储技术、分布式计算技术和数据挖掘技术。

常用的分布式存储技术包括Hadoop、HBase和Cassandra;分布式计算技术包括MapReduce、Spark和Flink;数据挖掘技术包括关联规则挖掘、聚类分析和分类预测等。

5. 大数据与云计算的关系是什么?大数据和云计算密切相关,云计算提供了大数据处理所需的基础设施和资源,并以灵活的方式提供计算和存储能力。

大数据处理通常需要大规模的计算和存储资源,云计算通过虚拟化和自动化技术,提供了弹性扩展和按需付费等优势,满足了大数据处理的需求。

6. 大数据中的数据挖掘有什么应用?在大数据中,数据挖掘可以应用于推荐系统、欺诈检测、舆情分析、市场营销等领域。

通过分析大数据中的模式和趋势,可以挖掘出用户的兴趣和行为,为用户推荐合适的产品或服务;同时,可以通过分析大数据中的异常和风险,及时发现欺诈行为;此外,还可以通过分析社交媒体数据,了解用户的情感和态度,进行舆情监测和品牌管理。

应用大数据面试题目(3篇)

应用大数据面试题目(3篇)

第1篇随着大数据技术的飞速发展,越来越多的企业开始重视大数据的应用,并将其作为提升企业竞争力的重要手段。

为了帮助求职者更好地准备应用大数据的面试,以下将提供一系列面试题目,涵盖大数据的核心概念、技术架构、数据处理、分析应用等多个方面。

一、大数据核心概念1. 请简要介绍大数据的五个V(Volume、Velocity、Variety、Veracity、Value)及其对大数据处理的影响。

2. 什么是Hadoop?请列举Hadoop的主要组件及其功能。

3. 解释MapReduce编程模型的工作原理,并说明其在处理大数据时的优势。

4. 什么是数据仓库?请描述数据仓库的基本架构和功能。

5. 什么是数据湖?它与数据仓库有什么区别?二、大数据技术架构1. 请列举大数据技术栈中常用的开源框架,并简要介绍它们的作用。

2. 什么是Spark?请说明Spark的架构和主要特性。

3. 什么是Flink?请描述Flink与Spark的主要区别。

4. 什么是Hive?请介绍Hive的架构和功能。

5. 什么是Kafka?请说明Kafka在数据处理中的作用。

三、数据处理与分析1. 请描述数据清洗的步骤和常见方法。

2. 什么是数据脱敏?请列举几种数据脱敏技术。

3. 什么是数据压缩?请介绍几种常用的数据压缩算法。

4. 什么是数据挖掘?请列举几种常见的数据挖掘算法。

5. 什么是机器学习?请介绍几种常见的机器学习算法。

四、大数据应用场景1. 请举例说明大数据在金融行业的应用场景。

2. 请举例说明大数据在医疗行业的应用场景。

3. 请举例说明大数据在零售行业的应用场景。

4. 请举例说明大数据在交通行业的应用场景。

5. 请举例说明大数据在政府领域的应用场景。

五、大数据项目经验1. 请描述你参与过的最大规模的大数据项目,包括项目背景、目标、技术选型、实施过程和成果。

2. 请描述你在项目中遇到的技术难题及其解决方案。

3. 请描述你在项目中如何进行数据治理和质量管理。

数据分析面试题及答案

数据分析面试题及答案

数据分析面试题及答案数据分析面试题及答案1.问题描述在大规模数据处理中,常遇到的一类问题是,在海量数据中找出出现频率最高的前K个数,或者从海量数据中找出最大的前K个数,这类问题通常称为“top K”问题,如:在搜索引擎中,统计搜索最热门的10个查询词;在歌曲库中统计下载率最高的前10首歌等等。

2.当前解决方案针对top k类问题,通常比较好的方案是【分治+trie树/hash+小顶堆】,即先将数据集按照hash方法分解成多个小数据集,然后使用trie树或者hash统计每个小数据集中的query词频,之后用小顶堆求出每个数据集中出频率最高的前K 个数,最后在所有top K中求出最终的top K。

实际上,最优的解决方案应该是最符合实际设计需求的方案,在实际应用中,可能有足够大的内存,那么直接将数据扔到内存中一次性处理即可,也可能机器有多个核,这样可以采用多线程处理整个数据集。

本文针对不同的应用场景,介绍了适合相应应用场景的解决方案。

3.解决方案3.1 单机+单核+足够大内存设每个查询词平均占8Byte,则10亿个查询词所需的内存大约是10^9*8=8G 内存。

如果你有这么大的内存,直接在内存中对查询词进行排序,顺序遍历找出10个出现频率最大的10个即可。

这种方法简单快速,更加实用。

当然,也可以先用HashMap求出每个词出现的频率,然后求出出现频率最大的10个词。

3.2 单机+多核+足够大内存这时可以直接在内存中实用hash方法将数据划分成n个partition,每个partition交给一个线程处理,线程的处理逻辑是同3.1节类似,最后一个线程将结果归并。

该方法存在一个瓶颈会明显影响效率,即数据倾斜,每个线程的处理速度可能不同,快的线程需要等待慢的线程,最终的处理速度取决于慢的线程。

解决方法是,将数据划分成c*n个partition(c>1),每个线程处理完当前partition后主动取下一个partition继续处理,直到所有数据处理完毕,最后由一个线程进行归并。

数据主管面试题目(3篇)

数据主管面试题目(3篇)

第1篇1. 请您简单介绍一下自己,包括您的教育背景、工作经历以及您在数据领域的研究方向。

2. 您在数据领域有哪些专业特长?您认为自己在数据行业有哪些优势?3. 您对未来的职业发展有何规划?您希望在数据领域达到什么样的成就?二、数据管理与分析1. 请简要描述您对数据管理的理解,包括数据采集、存储、处理、分析和应用等方面。

2. 您如何保证数据质量?请举例说明您在数据清洗、去重、去噪等方面的经验。

3. 请谈谈您在数据分析方面的经验,包括常用的数据分析方法和工具。

4. 您如何处理大规模数据集?请举例说明您在处理海量数据时的经验和技巧。

5. 请谈谈您在数据可视化方面的经验,包括常用的可视化工具和技巧。

三、数据挖掘与机器学习1. 请简要介绍数据挖掘的基本概念和常用算法。

2. 您在机器学习方面有哪些经验?请举例说明您在特征工程、模型选择、模型调优等方面的经验。

3. 您如何评估机器学习模型的性能?请谈谈您在模型评估方面的经验和技巧。

4. 请谈谈您在深度学习方面的经验,包括神经网络结构、训练方法和应用场景。

5. 您如何处理过拟合和欠拟合问题?请举例说明您在模型正则化、交叉验证等方面的经验。

四、大数据技术与架构1. 请简要介绍大数据技术的基本概念和常用技术架构。

2. 您在分布式系统设计方面有哪些经验?请举例说明您在数据分区、负载均衡、容错机制等方面的经验。

3. 您对Hadoop、Spark等大数据平台有哪些了解?请谈谈您在这些平台上的应用经验。

4. 请谈谈您在数据仓库设计方面的经验,包括数据模型、ETL过程、数据仓库优化等方面。

5. 您如何处理实时数据流?请举例说明您在实时数据处理、流计算等方面的经验。

五、数据安全与隐私保护1. 请谈谈您对数据安全与隐私保护的理解,包括数据加密、访问控制、审计等方面。

2. 您在处理敏感数据时有哪些经验?请举例说明您在数据脱敏、数据脱库等方面的经验。

3. 您如何应对数据泄露风险?请谈谈您在数据安全防护、安全意识培训等方面的经验。

海量数据 面试题

海量数据 面试题

海量数据面试题随着互联网的快速发展,数据量也在不断增加,我们正面临处理海量数据的挑战。

而在面试中,针对海量数据的问题经常会被提及。

本文将针对海量数据面试题展开讨论,探究如何高效处理海量数据。

一、海量数据的定义及挑战海量数据,顾名思义就是数据量非常大的数据集合。

在面试中,常常被用来考察面试者对于大数据处理的能力以及相关算法的理解。

处理海量数据的挑战主要体现在以下几个方面:1. 存储空间的限制:海量数据需要巨大的存储空间,如何高效地存储这些数据是一个难题。

2. 计算效率的要求:海量数据的计算速度通常要求非常高,需要使用高效的算法和计算模型。

3. 数据的处理:如何对海量数据进行有效的处理,从中提取出有用的信息,是一个关键问题。

二、常见的海量数据面试题及解决方案1. 确定一个文件中出现次数最多的单词。

在解决这个问题时,我们可以采用“分而治之”的思想,将大文件划分为多个小文件,然后分别统计每个小文件中出现次数最多的单词,最后再比较得出结果。

2. 求海量数据中的中位数。

对于海量数据,直接将其全部加载到内存中是不现实的。

解决这个问题可以采用“分治算法”。

具体操作步骤如下:a. 将海量数据分成多个小的数据块,每个数据块的大小可以装在内存中;b. 对每个数据块进行排序;c. 取出每个数据块的中位数,并找出这些中位数的中位数,即为所求中位数。

3. 找出海量数据中出现次数最多的前K个元素。

解决这个问题可以采用“堆”的数据结构。

具体操作步骤如下:a. 遍历整个海量数据集,将前K个元素放入到一个小根堆中;b. 对于剩余的元素,如果其出现次数大于堆顶元素的出现次数,则将堆顶元素弹出,再将该元素加入堆中;c. 最后堆中剩余的就是出现次数最多的前K个元素。

4. 判断一个数是否在海量数据中存在。

对于单个数字的查找,可以使用布隆过滤器(Bloom Filter)进行快速检索。

布隆过滤器是一种数据结构,用于判断一个元素是否存在于一个集合中。

数据专员面试题目(3篇)

数据专员面试题目(3篇)

第1篇一、基础知识部分1. 题目:请简述数据专员在日常工作中需要掌握的数据处理工具和技术。

解析:此题考察应聘者对数据处理工具和技术的了解程度。

应聘者应能够列举出至少三种数据处理工具(如Excel、SQL、Python等)及其基本功能,并简要说明其在数据分析和处理中的应用。

2. 题目:什么是数据清洗?请列举三种常见的数据清洗方法。

解析:此题考察应聘者对数据清洗概念的理解和实际操作能力。

数据清洗是指对原始数据进行预处理,消除数据中的错误、缺失和不一致等问题。

应聘者应能够列举出至少三种数据清洗方法,如删除重复数据、填补缺失值、处理异常值等。

3. 题目:简述数据可视化在数据分析中的作用。

解析:此题考察应聘者对数据可视化概念的理解。

数据可视化是将数据以图形、图像等形式呈现,有助于人们更好地理解数据背后的信息。

应聘者应能够说明数据可视化在数据分析中的作用,如直观展示数据趋势、发现数据规律、辅助决策等。

4. 题目:什么是数据挖掘?请列举三种常用的数据挖掘方法。

解析:此题考察应聘者对数据挖掘概念的理解。

数据挖掘是指从大量数据中提取有价值的信息和知识的过程。

应聘者应能够列举出至少三种常用的数据挖掘方法,如分类、聚类、关联规则挖掘等。

5. 题目:什么是数据仓库?请简述其作用。

解析:此题考察应聘者对数据仓库概念的理解。

数据仓库是一个集中存储和管理企业数据的系统,用于支持数据分析和决策。

应聘者应能够说明数据仓库的作用,如数据整合、数据质量管理、数据挖掘等。

二、实际应用部分1. 题目:请结合实际案例,阐述数据专员在数据采集、数据清洗、数据分析、数据可视化和数据挖掘等方面的具体工作内容。

解析:此题考察应聘者对数据专员实际工作内容的了解。

应聘者应结合自身经验或实际案例,详细描述在数据采集、数据清洗、数据分析、数据可视化和数据挖掘等方面的具体工作内容,如数据来源、数据清洗方法、数据分析工具、可视化方法等。

2. 题目:假设您所在的公司需要分析用户购买行为,请您提出一个数据分析方案,并简要说明您将使用哪些工具和技术。

大数据的面试题及答案

大数据的面试题及答案

大数据的面试题及答案在大数据时代,大数据领域的专业人才需求越来越大。

而在求职大数据相关领域时,面试则是必不可少的环节。

为了帮助大家更好地准备面试,本文将列举一些常见的大数据面试题及对应的答案,以供参考。

问题一:请解释什么是大数据?答案:大数据是指规模庞大、无法仅依靠传统的数据处理工具进行捕捉、管理、处理和分析的数据集合。

这些数据集合通常具有高度的复杂性和多样性,并且以高速率产生。

大数据的特点主要体现在三个方面,即数据量大、数据种类多和数据速度快。

问题二:请谈一谈大数据技术的优势与挑战。

答案:大数据技术的优势主要包括:1. 帮助企业更好地了解客户,提供个性化的服务。

2. 可以分析和预测市场趋势,为企业决策提供依据。

3. 提高企业的运营效率,降低成本。

4. 促进科学研究、医疗健康等领域的发展。

大数据技术面临的挑战主要包括:1. 数据质量的问题,包括数据的准确性、完整性等。

2. 隐私保护与数据安全问题。

3. 大数据分析技术与算法的不断更新与发展。

4. 数据治理与管理的难题。

问题三:请简要介绍一下Hadoop。

答案:Hadoop是一个开源的分布式计算平台,用于处理大规模数据。

它的核心组件包括Hadoop分布式文件系统(HDFS)和MapReduce计算模型。

HDFS用于将数据分布式存储在多台机器上,而MapReduce则用于将数据分布式处理和计算。

Hadoop具有高容错性、高可扩展性和低成本等特点,被广泛应用于大数据处理领域。

问题四:请解释一下MapReduce。

答案:MapReduce是一种用于对大规模数据集进行并行处理的编程模型。

它将计算任务分解为两个独立的阶段:Map阶段和Reduce阶段。

在Map阶段,输入数据会被分割成多个小的子问题,然后分发给不同的计算节点并行处理。

在Reduce阶段,处理结果会被汇总起来以得到最终的输出结果。

MapReduce模型的核心思想是将问题分解为多个可并行处理的子问题,以提高处理效率。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

The Way of C++C++博客 :: 首页 :: 联系 :: 聚合C/C++(2)Hadoop(5)Job(2)Project(1)随笔档案2010年9月 (6)2010年7月 (4)2010年5月 (1)2010年4月 (10)2010年3月 (23)2009年12月 (2)2009年11月 (5)2007年12月 (4)相册Beautiful photoThe m em ory收藏夹Zone搜索海量数据面试题整理(转)1. 给定a 、b 两个文件,各存放50亿个url ,每个url 各占64字节,内存限制是4G ,让你找出a 、b 文件共同的url ?方案1:可以估计每个文件安的大小为50G ×64=320G ,远远大于内存限制的4G 。

所以不可能将其完全加载到内存中处理。

考虑采取分而治之的方法。

s 遍历文件a ,对每个url求取,然后根据所取得的值将url 分别存储到1000个小文件(记为)。

这样处理后,所有可能相同的url 都在对应的小文件()中,不对应的小文件不可能有相同的url 。

然后我们只要求出1000对小文件中相同的url 即可。

s 求每对小文件中相同的url 时,可以把其中一个小文件的url 存储到hash_set 中。

然后遍历另一个小文件的每个url ,看其是否在刚才构建的hash_set 中,如果是,那么就是共同的url ,存到文件里面就可以了。

方案2:如果允许有一定的错误率,可以使用Bloom filter ,4G 内存大概可以表示340亿bit 。

将其中一个文件中的url 使用Bloom filter 映射为这340亿bit ,然后挨个读取另外一个文件的url ,检查是否与Bloom filter ,如果是,那么该url 应该是共同的url (注意会有一定的错误率)。

2. 有10个文件,每个文件1G ,每个文件的每一行存放的都是用户的query ,每个文件的query 都可能重复。

要求你按照query 的频度排序。

方案1:s 顺序读取10个文件,按照hash(query)%10的结果将query 写入到另外10个文件(记为用hash_m ap(query,query_count)来统计每个query 出现的次数。

利用快速/堆/归并排序按照出现次数进行排序。

将排序好的query 和对应的query_cout 输出到文件中。

这样得到了10个排好序的文件(记为这10个文件进行归并排序(内排序与外排序相结合)。

方案2:一般query 的总量是有限的,只是重复的次数比较多而已,可能对于所有的query ,一次性就可以加入到内存了。

这样,我们就可以采用trie 树/hash_m ap 等直接来统计每个query 出现的次数,然后按出现次数做快速/堆/归并排序就可以了。

方案3:最新评论Qop按照该值存到5000个小文件(记为个IP。

同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_m ap进行频率统计,然后再找出频率最大的几个)及相应的频率。

然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。

5. 在2.5亿个整数中找出不重复的整数,内存不足以容纳这2.5亿个整数。

方案1:采用2-Bitm ap(每个数分配2bit,00表示不存在,01表示出现一次,10表示多次,11无意义)进行,共需内存内存,还可以接受。

然后扫描这2.5亿个整数,查看Bitm ap中相对应位,如果是00变01,01变10,10保持不变。

所描完事后,查看bitm ap,把对应位是01的整数输出即可。

方案2:也可采用上题类似的方法,进行划分小文件的方法。

然后在小文件中找出不重复的整数,并排序。

然后再进行归并,注意去除重复的元素。

6. 海量数据分布在100台电脑中,想个办法高校统计出这批数据的TOP10。

方案1:s 在每台电脑上求出TOP10,可以采用包含10个元素的堆完成(TOP10小,用最大堆,TOP10大,用最小堆)。

比如求TOP10大,我们首先取前10个元素调整成最小堆,如果发现,然后扫描后面的数据,并与堆顶元素比较,如果比堆顶元素大,那么用该元素替换堆顶,然后再调整为最小堆。

最后堆中的元素就是TOP10大。

s 求出每台电脑上的TOP10后,然后把这100台电脑上的TOP10组合起来,共1000个数据,再利用上面类似的方法求出TOP10就可以了。

7. 怎么在海量数据中找出重复次数最多的一个?方案1:先做hash,然后求模映射为小文件,求出每个小文件中重复次数最多的一个,并记录重复次数。

然后找出上一步求出的数据中重复次数最多的一个就是所求(具体参考前面的题)。

8. 上千万或上亿数据(有重复),统计其中出现次数最多的钱N个数据。

方案1:上千万或上亿的数据,现在的机器的内存应该能存下。

所以考虑采用hash_map/搜索二叉树/红黑树等来进行统计次数。

然后就是取出前N个出现次数最多的数据了,可以用第6题提到的堆机制完成。

9. 1000万字符串,其中有些是重复的,需要把重复的全部去掉,保留没有重复的字符串。

请怎么设计和实现?方案1:这题用trie树比较合适,hash_map也应该能行。

10. 一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前10个词,请给出思想,给出时间复杂度分析。

方案1:这题是考虑时间效率。

用trie树统计每个词出现的次数,时间复杂度是O(n*le)(le表示单词的平准长度)。

然后是找出出现最频繁的前10个词,可以用堆来实现,前面的题中已经讲到了,时间复杂度是O(n*lg10)。

所以总的时间复杂度,是O(n*le)与O(n*lg10)中较大的哪一个。

11. 一个文本文件,找出前10个经常出现的词,但这次文件比较长,说是上亿行或十亿行,总之无法一次读入内存,问最优解。

方案1:首先根据用hash并求模,将文件分解为多个小文件,对于单个文件利用上题的方法求出每个文件件中10个最常出现的词。

然后再进行归并处理,找出最终的10个最常出现的词。

12. 100w个数中找出最大的100个数。

方案1:在前面的题中,我们已经提到了,用一个含100个元素的最小堆完成。

复杂度为O(100w*lg100)。

方案2:采用快速排序的思想,每次分割之后只考虑比轴大的一部分,知道比轴大的一部分在比100多的时候,采用传统排序算法排序,取前100个。

复杂度为O(100w*100)。

方案3:采用局部淘汰法。

选取前100个元素,并排序,记为序列L。

然后一次扫描剩余的元素x,与排好序的100个元素中最小的元素比,如果比这个最小的要大,那么把这个最小的元素删除,并把x利用插入排序的思想,插入到序列L中。

依次循环,知道扫描了所有的元素。

复杂度为O(100w*100)。

13. 寻找热门查询:搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。

假设目前有一千万个记录,这些查询串的重复读比较高,虽然总数是1千万,但是如果去除重复和,不超过3百万个。

一个查询串的重复度越高,说明查询它的用户越多,也就越热门。

请你统计最热门的10个查询串,要求使用的内存不能超过1G。

(1) 请描述你解决这个问题的思路;(2) 请给出主要的处理流程,算法,以及算法的复杂度。

方案1:采用trie树,关键字域存该查询串出现的次数,没有出现为0。

最后用10个元素的最小推来对出现频率进行排序。

14. 一共有N个机器,每个机器上有N个数。

每个机器最多存O(N)个数并对它们操作。

如何找到个)。

我们把0到,第二段为,…,第N个段为在第k-1个机器上的累加数小于位。

然后我们对第k个机器的数排序,并找出第个便是所求。

复杂度是,求着n个实数在实轴上向量2个数之间的最大差值,要求线性的时间算法。

方案1:最先想到的方法就是先对这n个数据进行排序,然后一遍扫描即可确定相邻的最大间隙。

但该方法不能满足线性时间的要求。

故采取如下方法:s 找到n个数据中最大和最小数据m ax和m in。

s 用n-2个点等分区间[min, m ax],即将[min, m ax]等分为n-1个区间(前闭后开区间),将这些区间看作桶,编号为,且桶运矩且认为将min放入第一个桶,将max放入第n-1个桶。

s 将n个数放入n-1个桶中:将每个元素。

一遍扫描即可完成。

16. 将多个集合合并成没有交集的集合:给定一个字符串的集合,格式如:。

要求将其中交集不为空的集合合并,要求合并完成的集合之间无交集,例如上例应输出。

(1) 请描述你解决这个问题的思路;(2) 给出主要的处理流程,算法,以及算法的复杂度;(3) 请描述可能的改进。

方案1:采用并查集。

首先所有的字符串都在单独的并查集中。

然后依扫描每个集合,顺序合并将两个相邻元素合并。

例如,对于估计以第i个元素盛大Bambook程序达人赛IT新闻:·2011年我们如何革互联网的命·微软注册 Bi.ng 短域名·HTC投资移动互联网·中西部拼抢农民工:富士康每人每天3个报名任务·告别AutoRun 微软关闭U盘自动运行功能推荐职位:北京网路时代诚聘C++开发工程师博客园博问IT新闻学英语C++程序员招聘标题re: 海量数据面试题整理(转)姓名主页验证码*内容(提交失败后,可以通过“恢复上次提交”恢复刚刚提交的内容)提交登录使用高级评论新用户注册返回页首恢复上次提交[使用Ctrl+Enter键可以直接提交]每天10分钟,轻松学英语推荐职位:·智能手机应用(北京网路时代)·文档工程师(北京网路时代)·网站前台开发工程师(格锐正音国际)·.NET高级软件开发工程师(高薪诚聘)(新蛋信息科技)·[急聘].NET/Web开发工程师(武汉百纳信息技术)·Windows底层开发工程师(C++)(北京网路时代)·.NET开发工程师(北京网路时代)博客园首页随笔:·敏捷个人:2011/1/26聊天记录(沟通、优势)·linux内核自学笔记(1)· MVC随想·Silverlight数独游戏-2·Windows 7 电源管理知识库:·Silverlight 游戏开发小技巧:技能冷却效果2(Cooldow n)2·Silverlight 游戏开发小技巧:技能冷却效果(Cooldow n)·Html5新标签解释及用法·从技术到管理——如何实现跨越·访谈Brad Fitzpatrick——《编程人生》精彩样章相关文章:POJ 1523 无向图的割点有向图强连通分量的三种算法四道有趣的单链表面试题(单链表反序、找出链表的中间元素、链表排序、判断一个单链表是否有环) (转)POJ 1094 拓扑排序POJ 1724 搜索+优化poj 1988并查集的应用二叉树前序、中序、后序三种遍历的非递归算法o(n)时间求出n个元素的第k个大数据量,海量数据处理方法总结(转)网站导航:博客园IT新闻博客园个人主页BlogJava博客生活IT博客网PHP博客博客园社区管理最简洁阅读版式:海量数据面试题整理(转)Copyright @ kosonPowered by: .Text and Theme by: .NET Monster。

相关文档
最新文档