大数据面试题整合

一、java基础

1、Queue和Stack你平时有用过么,说说你常用的方法,他们的却别在哪呢?

2、了解java的异常吗,有什么区别,常见的异常有哪些呢?

3、两个字面值相同的Integer,它们两个用等于号去比较,结果是true还是false?(这个题要分两部分去回答,结果可能为true,也可能为false。因为有缓存)

4、可以讲一下你常用的集合类么?他们的实现类有哪些?

5、ArrayList、LinkedList的区别,底层的实现呢了解吗,有没有什么优缺点,分别适合于什么样的场景,多线程环境下,有没有安全的list的实现类呢?

6、其他数据结构的了解吗?LinkedHashMap、ConcurrentSkipHashMap(作为一个扩展,面试的时候问到的不是很多,能答出来挺好,答不出来也没关系)

7、说一说你对HashSet的理解,越详细越好(tip:底层是用hashMap实现的),treeSet有了解吗?聊一聊?

8、HashMap:

的底层数据结构是什么样子的

b.了解hash冲突吗?它是如何解决hash冲突的

c.请你简单叙述一下hashMap的put和get操作,当然,能说多细就说多细?

和jdk8中对hashMap做了什么改进嘛(红黑树)?

e.有没有其他的解决冲突的办法呢

中的hash函数了解吗?那他的扩容机制了解吗?

为什么扩容是2倍呢,可以说说嘛?

h.假如说我加入一个键值对,这个时候出现了冲突,它只怎么把这个节点加入进去?是加入到当前bucket所对应的链表的头结点还是尾节点?(答不上来可以问一个稍微简单的,equals和==的区别,以及其中hashCode的作用)

i.可以说说什么条件下,可以把一个链表转成红黑树呢?它里面的大概流程是什么,了解吗?

j.有没有想过为什么选用了红黑树,而不是其他的数据结构,譬如说二叉树,二叉查找树,或者其他的树?

k.在高并发大流量的情况下,hashMap有什么问题吗,会不会造成cpu达到100%?如果会,那是在哪一步可能会出现这个问题呢(插入、删除、查找、扩容)?

9、ConcurrentHashMap:

a、他和HashTable的区别呢?

b、说说你对JUC包的了解?

c、ConcurrentHashMap中是怎么加锁的?

d、1.7和1.8中,ConcurrentHashMap的区别是什么?

e、ConcurrentHashMap是怎么做到线程安全的呢?(CAS和锁)

f、为什么会抛弃分段锁,它有什么毛病吗(上面一个题回答上才可以问这个)?

g、知道红黑树的transfer过程么?简单的描述一下

10、多线程下:

a.多线程了解吗?说说线程的生命周期?

b.线程池有用到过吗?怎么用的,jdk有提供那些线程池(总共提供了四种)?

c.线程的状态有哪些呢?

d.线程池的核心参数有哪些?(核心线程数、最大线程数、时间、时间单位、队列、拒绝策略、默认的线程工厂)

,yeild,stop,sleep、join、start、run的区别和如何使用?

f.接着上题:这四种有什么区别吗,你用过哪一种,可能存在什么问题吗?

g.接上题:拒绝策略有哪些呢?了解吗?聊聊?

h.接上题:你刚才说了队列,线程池中的队列有哪些?有界队列、无界队列、同步队列都有了解吗?聊聊?

i.如何实现一个消费者和生产者的循环消费和生产呢?(有两种方式,一种是通过锁,lock或者Synchronize,还有一个是通过ArrayBlockingQueue实现)

j.你可以实现线程之间的相互通信吗?如何实现?要不写一个?

11、线程安全:

了解吗?谈谈你的理解

b.在一个普通方法上加synchronize和在一个静态方法上加synchronize有什么区别(对象锁和类锁的的区别)?

和lock有什么区别呢?说说你对lock的理解?

的公平和非公平锁?

e.说一说volitaile为什么保证不了原子性,可以保证可见性嘛?如何保证的(jvm的多线程的内存模型有关系)

f.了解CountDownLatch么,CyclicBarrier的区别呢?

的实现原理知道吗?moniter的实现机制呢,为什么加了Synchronzie关键字,就可以在多线程下是安全的(这个回答要从java对象的Object头来回答)

h.类锁和对象锁的区别呢?字节码的体现呢?

中的自旋锁、偏向锁、读写锁、重锁等了解吗?

j.了解java重对象的对象头嘛?有哪些属性和字段呢?

(AbstractQueuedSynchronizer)了解吗?它和lock的关系?说说aqs中的核心思想?

中存在锁升级嘛,他是可重入得嘛,那Synchronize是可重入得嘛,有没有锁升级的概念?

了解吗?他的作用是什么呢,内存语义是什么呢?有没有了解过cpu的缓存一致性协议?

n.还知道其他的juc类嘛,有哪些呢(譬如lockSupport)?

12、jvm:

a.了解jvm么?jvm的内存模型?

如何判断一个对象是否还活着呢?

的类加载了解吗?

类加载器了解吗,有哪些呢?那它的双亲委派了解吗?

指令你知道哪些(jps,jstack,jinfo,jmap……),都有什么作用呢?

的垃圾回收算呢,了解吗,G1回收算法了解吗?

参数你了解吗,知道多少说多少?

h.在实战中有进行过jvm调优嘛,怎么做的,

的对象年龄知道吗,有什么作用吗?

和fullGC了解吗,如何触发,如果在你的项目中,频繁出现youngGC怎么办?

13、设计模式:

a.你了解的设计模式有哪些?

b.可以写一个单例模式嘛,工厂模式呢,抽象工程模式解决了什么问题?

c.策略模式、责任链模式、适配器模式写一个,写不出来的话,java中在哪用到了这些模式

d.代理模式了解吗,会写吗,jdk代理和cglib代理的区别呢,说说你的理解?

二、数据结构与算法

1、排序算法了解什么?能不能手写一个快速排序、或者归并排序,堆排序有了解吗?

2、给你一个一元二次方程公式,你写一个方法,用计算机语言实现它。

3、图了解么,有向图呢?你可以实现一个有向图么?(假如他回答的是二维矩阵,可以反问他有没有更好的解决方案呢,因为这个图可能是个稀疏矩阵)

4、接上题,在图中,如何判断两个节点的联通性,可以写代码写出来么?

5、给你一个1T的Int文件,然后你只有一台内存是8G的机器,如何用最快的方法,求出里面出现频率最高的topN个数?

6、算法的时间复杂度和空间复杂度了解吗?说说你了解的算法的时间复杂度和空间复杂度。

7、二叉树了解吗,树的广度优先算法和宽度优先算法了解吗?写一个他的前序(中序、后序)遍历可以么(递归和非递归的方式都可以写出来么)?

8、给你一个字符串,请检查中间出现的括号的正确性,譬如:({[]}),((()))这都是个合法的字符串,(()())((()这就不是一个合法的字符串;

9、给你一个单向链表,检测它有没有形成环?

10、给你一个单向链表,如何反转,可不可以把空间复杂度降低到O(1)级别?

11、写一个字符串匹配算法,判断在一个字符串中是否包含另外一个字符串(一般都会说循环去比较,这样的时间复杂度很高,有一个算法是KMP,面试者要是能提到KMP都就很不错了,因为很多面试官都不知道,也不会)?

12、可以用两个栈模拟一个队列么?

13、如何判断两棵树相不相等

14、动态规划有了解吗?

a.给你一个机器人,它每次只能向右或者向下走一步,其中,中间有一个障碍物,不可以经过,请问,在一个n*m的矩阵中,这个机器人总共有多少种走的方法?(答不出来就降低一下难度,把中间的那个障碍物去掉)

b.青蛙跳知道吗?给你一个数组,里面的每一个数字代表青蛙可以前进的最大的步数,如何判断这个青蛙可不可以达到终点;譬如2,3,4,1就可以,1,2,1,0,1就不可以;

c.爬楼梯,假设有一个n阶的楼梯,你每次都只能爬1或者2个台阶,请问有多少种不同的方法可以爬上去呢?

d.给你一个整数数组,找到一个具有最大和的连续子数组(子数组至少包含一个元素),返回最大值

e.给你一个容量为V的背包,现在有N件商品(有重复,相同的商品可以随意取),每件商品的体积是v1,价值是w1,请问,这个背包所能容纳的最大价值是多少?

f.一个100层高的楼,有两颗鸡蛋,你需要用最少的次数找到那个临界点,这个临界点以上的楼层上摔下去,鸡蛋都会碎掉,以下的楼层,鸡蛋是不会碎的,(扩展,加入现在是N层高的楼房,你现在有m个鸡蛋,m=1,用最少的次数找到那个临界点)

三、数据库大汇总

1、用过mysql嘛?了解吗?

2、Mysql事务了解吗,隔离级别呢,每种隔离级别会出现什么问题?

3、Mysql的锁了解吗(表锁、行锁、间隙锁,读写锁)?

4、Mysql引擎知道吗,innodb和myisam的区别知道吗,说说底层的实现?

5、聚簇索引和非聚簇索引知道么,有什么区别?

6、B+树知道吗?为什么使用B+树?

7、分库分表做过吗,如果让你去实现分库分表,你有什么需要考虑或者注意的嘛?

8、了解死锁嘛?知道他是怎么产生的嘛,如何避免呢?

9、Sql优化了解过吗?说说你的理解,给你一条sql,你会怎么优化?

四、框架

1、redis大家庭:

是什么,能干嘛,怎么用?

的基础数据类型有哪些?

除了这些,还有哪些数据结构,能解决什么问题?

集群有搭建过么,说说你的实现

如何实现分布式锁

的支持事务么?

g.位图了解吗?

h.布隆过滤器了解吗,他的原理是什么呢?

的通信协议你知道嘛?

中的数据结构底层了解吗?string的编码、list的编码、zset的编码;

k.在集群环境下,Redis的分布式锁一定可靠吗,redis社区有没有提供可靠地分布式锁的集群方案(有,红锁)?

的持久化你知道么,说说rdb和aof的区别

瘦身知道么?如何瘦身

的拒绝策略你知道么?那它的淘汰策略你知道么

的哨兵模式呢,了解吗?

了解吗,用zookeeper实现分布式锁,和redis实现有什么不同呢,说说他们的原理?

2、Spring大家庭:

和Resource的区别

b.谈谈你对spring的理解,它干了什么?

的依赖注入和切面呢?

的事务了解吗,他的传播机制呢

的aop切面详细说说,你的应用场景呢?

用过吗?了解他的启动流程嘛?说说你的看法

中的bean的生命周期呢,了解吗?如何扩展一个bean的生命周期?

源码读过吗?有没有想过他是如何解析在xml中定义的bean的。

i.在spring的配置文件中加入component-scan标签,它就可以自动加载所有添加相应注解的java类,这个是怎么做到的呢,你知道嘛?

了解吗?dubbo是怎么和spring想结合的?

3、消息中间件大家庭:

a.你了解消息中间件有哪些?

b.谈谈你对topic和partition的理解?

中的isr和osr有了解吗?

的高水位你知道嘛?

的分区器、拦截器、序列化器你了解吗?

f.消息的可靠性怎么保证?

g.消息丢失怎么办?kafka有什么保证策略?(我了解kafka,你们也可以问问其他的,譬如rocketMq)

的事务你了解过吗(这个特别难,一般别问昂)?

4、zookeeper大家庭:

a.谈谈你对zookeeper的理解?

的节点类型你知道么?

的心跳机制呢?

的优势在哪?

e.知道zookeeper的watch嘛?

理论知道吗?

算法呢,了解吗?

5、springBoot大家庭:

a.什么是springboot?

b.为什么要用springboot呢?

的核心配置文件有哪几个?他们的区别是什么?

的配置文件有哪几种格式?区别?

的核心注解是那个?它主要由哪几个注解组成的?

f.如何理解springboot的配置加载顺序?

五、离线方向

1.数据优化中,需要注意哪些关键词

2.Uninon跟uninonall的区别

3.除了distinct外如何使用SQL对数据去重

4.项目中etl过程

5.Spark的运行流程

6.Sql开窗函数,开窗函数中row_number与rank的区别

7.Avg、sum、count函数,在某列有空值的情况下,结果会有哪些不同

8.一个表两个字段,一个id,一个values;values有连续相同;但是有缺失,找出缺失的地方补全(连续缺失的字段如何补全)

9.数据仓库的基本原理

10.数据表的各个模型,例如(雪花模型),简述

11.数据优化中除了用过mapjoin之外,还用过哪些join(不是常见的五种),简述

12.修改批量文件中的词

13.Shell脚本的定时任务

1.英语自我介绍,说一下越到的最大的挑战

2.union和unionall的区别

3.给了个题目,一个表两个字段,一个是id,一个是value,value是连续相同的,但是有缺失的,找出来缺失的地方补全

4.去重的操作

5.spark提交任务的流程

6.Sparkoom怎么处理

7.join有哪些?mapsidejoin是什么知道吗(不知道,大概猜了下,然后就没继续问)

8.Linux指令用过哪些?

9.用shell直接查找到文件中的一个词,然后替换(这个不会)

10.Datamodeler用过没

11.维度建模什么情况

1.用英语介绍下数据仓库和数据集市的区别

2.讲下linux免密登陆

3.介绍下spark执行流程

4.spl开窗函数

5.shell脚本读取文件

6.项目中最自豪的事情

7.数据库中count(*)和count(1)在什么情况下数据不一致

8.最有压力的事情

9.shell脚本替换文件内容,替换文本

10.数据倾斜调优

1.英语介绍一下olap和oltp的区别

2.olap的产品知道哪些

3.数仓模型建设

4.对表的设计

5.datamodeler工具

6.项目中的etl过程

7.统计人员使用什么工具查询

8.数据报表工具知道哪些

9.工作主要涉及的技术有哪些

10.每日数据量多少,存量多少

11.如何通过sparksql对数据进行更新

12.hbase数据如何更新

13.两表join跑不出数据会是什么原因,如何解决

14.如何进行mapjoin

15.开窗函数

16.linux命令考查

17.hdfs上跨节点如何数据迁移

18.免密登录如何实现

19.ip映射是记录在哪个文件中

20.如何批量修改文件中某一字符串

21.如何确保项目成功交付

22.项目交付时如何进行数据验证

23.项目中最有成就感的事情

六、Spark相关

Q:Spark任务提交后的流程

A:只要能说出来sparkContext,DAG,Stage,Executor就大致上应该了解些。

详细答案参考:

1)构建SparkApplication的运行环境(启动SparkContext),SparkContext向资源管理器(可以是Standalone、Mesos或YARN)注册并申请运行Executor资源;

(2)资源管理器分配Executor资源并启动StandaloneExecutorBack,Executor运行情况将随着心跳发送到资源管理器上;

(3)SparkContext构建成DAG图,将DAG图分解成Stage,并把Taskset发送给TaskScheduler。Executor向SparkContext申请Task

(4)TaskScheduler将Task发放给Executor运行同时SparkContext将应用程序代码发放给Executor。

(5)Task在Executor上运行,运行完毕释放所有资源。

Q:Spark的API有哪两大类?分别解释一下和举个例子?

A:是转换操作,如map,filter,union,reduceByKey等,Actions是执行操作,如count,collect,reduce,saveAsXXX等

Q:Spark中的union属于宽依赖还是窄依赖?有无shuffle?

A:属于窄依赖,无shuffle

SQL:

Q:unionall和union有什么区别?哪个性能好?

A:unionall不去重,union会去重。Unionall性能好,因为无需额外去重

Q:如何判断一张表里某个字段有重复?

A:利用COUNT加HAVING,答到这个的一般没问题,具体如下:

SELECTCOL,COUNT(1)ASCNTFROMTABLEGROUPBY1HAVINGCNT1

Q:有一张表有两个字段,分别是商品ID和商品价格,如何取到商品价格是前10名的所有商品ID?

A:如果只能想到ORDERBY+LIMIT的,说明SQL较弱。知道用窗口函数(PARTITIONBY)的话,至少说明应该不止做过简单的SELECT*FROMTABLE,但想到用row_number()的话。。不行,如果会问价格是否有重复的话,说明对问题考虑得算周全,因为价格通常都会重复,ID是一般唯一的,如果知道rank(),dense_rank()的话基本就没问题了。当然也有不用partitionby的方式,但步骤较多

数仓:

Q:数据仓库一般的分层有哪些

A:不同公司叫法不同,但是可以让他解释每层分别放什么样的数据,下面是网上抄的,大同小异,知道基本概念就行

ODS:OperationDataStore

原始数据

DWD(数据清洗/DWI)datawarehousedetail

数据明细详情,去除空值,脏数据,超过极限范围的明细解析

具体表

DWS(宽表-用户行为,轻度聚合)datawarehouseservice-----有多少个宽表?多少个字段

服务层--留存-转化-GMV-复购率-日活

轻度聚合对DWD

ADS(APP/DAL/DF)-出报表结果ApplicationDataStore

做分析处理同步到RDS数据库里边

Q:维度表和事实表分别是什么?举些例子?

A:简单解释:

事实表就是交易表。

维度表就是基础表。

二者的区别:

维度表的冗余很大,主要是因为维度一般不大(相对于事实表来说的),而维度表的冗余可以使事实表节省很多空间。

事实表一般都很大,如果以普通方式查询的话,得到结果一般发的时间都不是我们可以接受的。所以它一般要进行一些特殊处理。如SQLServer2005就会对事实表进行如预生成处理等。

事实表一般是没有主键的,数据的质量完全由业务系统来把握。

七、SQL相关

1.distributeby、sortby、clusterby、orderby区别?

1).orderby只有一个reduce负责对所有的数据进行排序,若大数据量,则需要较长的时间。建议在小的数据集中使用orderby进行排序。

2).orderby可以通过设置参数控制执行方式,若选择strict,则orderby则需要指定limit(若有分区还有指定哪个分区);若为nostrict,则与关系型数据库差不多。

3).sortby基本上不受影响,可以通过指定reduce个数,查询后的数据被分发到相关的reduce中。

4).sortby的数据在进入reduce前就完成排序,如果要使用sortby是行排序,并且设置,则sortby才能保证每个reducer输出有序,不能保证全局数据有序。

5).distributeby采集hash算法,在map端将查询的结果中hash值相同的结果分发到对应的reduce文件中。

6).distributeby可以使用length方法会根据string类型的长度划分到不同的reduce中,最终输出到不同的文件中。length是内建函数,也可以指定其他的函数或这使用自定义函数。

7).clusterby除了distributeby的功能外,还会对该字段进行排序,但是排序只能是升序排序,不能指定排序规则为ASC或者DESC,所以clusterby=distributeby+sortby。

2.请简述以下sql的执行顺序是什么?

select

catid,

count(orderid)assales

fromt_tab

wherecatid"c666"

groupbycatid

havingcount(orderid)10

orderbycount(orderid)desc

limit100

答:

from-where-groupby-having-select-orderby-limit

3.问:

(1)两条语句的执行结果是否一样?为什么?

(2)假设,数据量很大的情况下,您会选择哪种语句执行?也可以自行开发

--sql语句1

select

,,

fromt1leftjoint2

=

--sql语句2

select

,,

fromt1leftjoint2

=

答:1)由于leftjoin,rightjoin,fulljoin的特殊性,不管on上的条件是否为真都会返回left或right表中的记录,full则具有left和right的特性的并集。

sql语句1中采用的是leftjoin,所以on里的对左表t1不起作用,结果还是会返回t1表的所有数据

sql2则是先通过on上的条件,将两表关联,在最终关联好的表上,在进行过滤,所以只会返回的所有数据

2)当数据量很大的情况下,基于上述情况我会选择sql2,但是性能不高,可以采用以下查询

select

tmp_,tmp_,

from

(

select*

)tmp_t1leftjoint2

ontmp_=

4.count(distinctuser_id)和groupbyuser_id之后求count两者有什么区别?

首先要清楚,count(distinct)的原理机制,首先他是将数据通过map端发往一个reduce,之后reduce接收到数据之后,会将数据放入到hashset中去重,之后cleanUp()方法,在执行最后的逻辑,比如:计算hashset的size等。

这里就出现了一些问题,

1)数据都发往一个reduce会造成数据倾斜,

2)程序从分布式变成单机程序,影响效率

3)程序执行过程中,只产生一个job

但也不是绝对的,当数据量很小的时候,此时我们并不需要采分布式执行,一个job运行足矣,但是,当数据量比较大的时候,这时count(distinct)就暴露除了大大的弊端,所以,此时,不应该采用此法来实现去重

group()bycount()当数据量比较大的时候,采用此法,先分组,这时已经在map端实现了去重机制,之后数据发往reduce数据量已经变得很小了,并且此法涉及到shuffle,所以reduce的压力不会集中在某个上,并且会产生多个job。

1.1group()bycount()一定比count(distinct)性能要好吗?

不一定,当数据量比较大的时候采用group()bycount()会比count(distinct)要好,但是在数据量比较小的时候,一个job就可以处理,没必要用两个job,也没必要shuffle,所以调优看情况而定。

版权声明:本站所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,不声明或保证其内容的正确性,如发现本站有涉嫌抄袭侵权/违法违规的内容。请举报,一经查实,本站将立刻删除。

相关推荐