干货:18张思维导图,后端技术学习路线长这样!应用程序服务器中间件计算机编程

思来想去,学习方向和路线很重要。比起具体的技术细节,可复制的经验、清晰的学习路线,是大部分人更加需要的东西。

话不多说,直接上后端技术学习路线思维导图框架:

图中的每一个节点我都做了细分,在后面章节逐个展开介绍。

计算机基础

不管是后端开发还是前端开发,说到底我们所有的软件开发都是在计算上编写程序,虽然对于大部分人来说,真正开始写代码的时候很少会让你去解决计算机底层的问题,但不接触不代表不重要,计算机基础是最重要的。

后端开发工作中经常用到Java、C++、Python、Golang,这些语言称为高级编程语言。称为高级是因为它们接近我们日常交流的自然语言,离计算机底层远。但所有的高级语言最终都会转化成汇编->计算机指令->控制流操控计算机硬件,所以学习计算机构成和工作原理、操作系统这些基础知识,能够加深我们对高级语言的理解。

计算机组成原理

这门课程让你了解计算机的组成和工作原理,要学习的内容包括:

计算机网络

世界上第一台通用计算机「ENIAC」于1946被发明出来,如其名字一样仅仅是用于计算,在后来计算机越来越多,如果没有网络每台计算机都将成为一个孤岛,也不会有现在互联网的繁荣,「计算机网络」这门课程的学习路线非常清晰,就是围绕着如何让地理位置上不同的计算机连接起来,并高效可靠的交换数据信息,实现人在家中做,天下事尽知。

计算机网络有分层次,根据各层属性和特点,分为:

这个层次划分从上到下就是一个网络数据包的接收路径,反之就是发送路径。既然要交换信息肯定得商量一套通用的协议,就像我们和老外交流,要么他们学中文要么我们学英文,反正得统一出一个标准语言出来,这在计算机网络中称之为「通信协议」。如上述的网络分层,每层都有各自适配的协议,所以计算机网络的学习基本就是围绕着分层协议的学习。

操作系统操作系统也是一种软件。你熟悉的微软Windos操作系统,后台开发熟悉的各种发行版的Linux系统,都是通过软件的形式安装在计算机上。

只不过这个软件和我们平常接触的应用程序软件不同,它比较特殊,因为它向下和计算机硬件(就是我们在计算机组成原理中学习的那些硬件)打交道,向上给其他应用程序和用户提供通用的交互的接口,说白了操作系统就是个中介和管家的角色。它帮我们做了下面这些事情:

数据结构

数据结构大家最熟悉,即使毫无计算机基础或是想转行计算机,第一个遇到的就是数据结构,因为面试刷的算法题本质上就是对各种数据结构的运用。所以单纯对面试功利的角度来说,数据结构也是必须要掌握的计算机基础,数据结构要学到:

Linux

在后台开发领域,你所能接触到的后端服务不敢说100%,至少也有90%以上是运行在Linux系统之上,因为它开源、便利、功能强大,需要学习以下技术点:

Linux系统使用

所以如果你想走后端开发这条路线,我建议你趁早使用Linux,越早越好。可以是在个人PC上装Linux虚拟机,或者装个双系统,我在大学就是这么玩的,那时候云服务器还没现在这么普及,现在我觉得买个Linux云服务器最方便,如果是学生还有教育优惠。

Linux高级编程

Linux「高级编程」的意思是比上面的Linux基础操作更深入一个层次。

要想进阶成为后端开发人员,就要懂得如何使用Linux系统提供的各种系统API(系统调用接口)进行编程开发,程序员用你写的代码来控制系统,普通用户只会用鼠标操纵。这个阶段需要学习:

总之,这一阶段需要学习的是在Linux环境下的高级编程技巧,通过对这些内容的学习也能让你更深入的理解Linux系统是如何工作和运行的,并且真正的踏入Linux系统编程大门。

网络编程

网络编程是通过网络套接字socket方式实现的通信,所以也属于进程间通信IPC(Inter-ProcessCommunication)。

由于现在的后台服务基于服务端/客户端模型,两者之间基于网络通信,你在家用手机点个外卖的服务请求,也是通过网络通信发给某团的后台服务器,所以后台服务开发,说到底还是网络编程,以及建立在网络编程数据之上的应用层开发。

网络编程学什么:

不过在工作中,都有成熟的网络框架或网络通信库,大公司比如鹅厂大部分是自研网络通信框架,小公司用开源项目,这让很多后台开发人员不必关心底层的网络通信细节,除了部分基础架构的开发同学,大部分后台开发同学工作都是在做业务系统的开发。

但了解底层网络编程原理,是后台开发人员的核心能力,这点对于C/C++后台开发程序员尤为重要。它能拔高你看问题的高度,不了解底层原理,就像是在黑盒编程一样,出了问题无从下手排查。

数据库

除非是单纯的转发路由类后台服务,一般来说后台开发的web服务器后台程序,后台服务程序说白了就是个死循环:

接收客户端数据包->处理数据包->业务逻辑处理->保存必要的数据->回复响应数据给客户端

这其中会伴随对各种数据的处理,比如电商系统会处理订单数据、用户数据,游戏后台会处理角色数据和装备数据等等,有数据就会涉及到存储系统,数据一般都存储到数据库。

主要学习2大类数据库:

关系型数据库是指采用了关系模型来组织数据的数据库,简单理解就是二维表格模型。

非关系型数据库一般指的是key-value形式存储数据的NoSQL数据库,数据和键值是简单的映射关系。

关系型数据库非关系型数据库

后台开发服务还需要学会解决三高问题:高并发、高可用、高性能。

高并发

利用到目前为止学习的内容,我们的开发的后台服务器应付一些小并发场景绰绰有余,但是随着互联网应用业务量的上涨,对后台服务端的请求数剧增,高并发需求随之而来,高并发指的就是高TPS和高QPS

对于高并发服务必须改变传统的单进程模型,才能处理的过来如此海量的请求。

多进程

多线程

多线程与多进程类似,实际在Linux系统中线程是由轻量级的进程LWP(Light-weightprocess)实现,多线程方式实现的后台服务相对于多进程更加轻量,因为多线程是在同一个进程内部实现。

不过多线程也会带来新的问题,比如全局数据竞争和同步问题,引入线程锁还要防止死锁的发生。

协程

那什么是协程呢?协程Coroutines是一种比线程更加轻量级的微线程。类比一个进程可以拥有多个线程,一个线程也可以拥有多个协程,因此协程又称微线程和纤程。可以粗略的把协程理解成子程序调用,每个子程序都可以在一个单独的协程内执行。

异步回调

所谓异步回调就是,服务端发起IO请求的线程不等网络IO线程操作完成,就继续执行随后的代码,一般请求线程需要先注册一个回调函数,当IO完成之后网络IO线程通过调用之前注册的回调函数来通知发起IO请求的线程,这样发起请求的线程就不会阻塞住等待结果,提高了服务处理性能。

高性能

高可用

高可用即保证服务的稳定性,不出现重大问题或宕机,常见的解决高可用思路是冗余和负载均衡。冗余的意思就是多部署几台服务器,当其中一台挂掉另外一台能顶上。通过负载均衡技术实现对流量的动态调配,不至于出现大量流量冲击某台机器出现请求不均匀,软件负载均衡技术可以通过DNS、Nginx、LVS等技术实现。这里主要学习的技术有:

设计模式

设计模式6大原则:

常见设计模式分类

分布式

为什么会出现分布式?随着业务的体量不断增长,单个节点的处理能力无法满足日益增长的计算、存储任务的时候,且硬件的提升(加内存、加磁盘、使用更好的CPU)高昂到得不偿失的时候,应用程序也不能进一步优化的时候,我们才需要考虑分布式系统。

分布式系统是由一组通过网络进行通信、为了完成共同的任务而协调工作的计算机节点组成的系统。分布式系统的出现是为了用廉价的、普通的机器完成单个计算机无法完成的计算、存储任务。其目的是利用更多的机器,处理更多的数据。

分布式系统要解决的问题本身就是和单机系统一样的,而由于分布式系统多节点、通过网络通信的拓扑结构,会引入很多单机系统没有的问题,为了解决这些问题又会引入更多的机制、协议。这里需要学习的内容包括:

安全

本质上后台服务在网络上运行,需要和各种网络环境交互,在正常情况下能够工作,但互联网中有很多针对后台服务的恶意攻击,因此网络安全也是后台开发工程师需要学习的内容。这里主要包括:

监控与统计

后台服务运行我们如何了解其运行状态和健康度?如果只是开发小玩具监控和统计大可不必,只需记录本地日志即可,对于成熟的大型后台服务系统,监控、统计、追踪必不可少,无监控,不运营。

开源的监控软件有:Prometheus、Zabbix、Open-Falcon。

追踪系统也非常重要,特别是目前微服务化,一次服务请求需要经历多个不同的微服务处理,给分布式追踪带来新的挑战,主要包含以下三个方面:

业界也有一些成熟的开源软件用于监控与追踪:SkyWalking、Pinpoint、Zipkin、CAT大众点评开源。不过大公司一般都有自研的一套监控与追踪系统,比如腾讯内部就有多套自研监控与调用链追踪系统。

搜索引擎

我们讨论的是全文搜索引擎,什么是全文搜索引擎?

数据分为结构化数据与非结构化数据

像数据库表这种的数据是结构化数据;而对于像HTML、XML、文档这样不定长度且无固定格式的数据我们称之为非结构化数据。非结构化数据也称为全文数据,对非结构化数据的搜索可以用全文检索的方式,

目前两大主流的全文搜索引擎「Solr」和「Elasticsearch」都是基于Lucene建立。搜索引擎需要学习的内容:

大数据

大数据,又称为巨量资料,指的是在传统数据处理应用软件不足以处理的大或复杂的数据集的术语。随着后台服务用户数增加和数据的积累,产生海量有待挖掘价值的数据,分析利用这些数据可以反馈线上决策,优化运营策略,产生数据价值。

在软件开发领域的大数据概念自20世纪90年代的数据仓库开始,对于大数据的处理也导致各种海量数据的统计和处理技术发展。

主要包含以下的技术点需要学习:数据存储、离线分析、流式计算。

虚拟化

虚拟化,是指通过虚拟化技术将一台计算机虚拟为多台逻辑计算机。

虚拟化的好处

常见的虚拟化技术:KVM、Xen、OpenVZ、Docker

OpenStack管理VM(VirtualMachine)虚拟机的工具;Kubernetes简称K8s,是管理container容器的工具。

中间件

在后端开发中你可能经常听说到「中间件」这个词,那什么是中间件?看下Wiki上的定义:

中间件技术创建在对应用软件部分常用功能的抽象上,将常用且重要的过程调用、分布式组件、消息队列、事务、安全、链接器、商业流程、网络并发、HTTP服务器、WebService等功能集于一身或者分别在不同品牌的不同产品中分别完成。中国科学院软件所研究员仲萃豪把中间件定义为「平台+通信」。这个定义限定了只有用于分布式系统中的此类软件才能被称为中间件,同时此定义也把中间件与实际应用的应用软件区分开来。

大白话来说,中间件就是把分布式系统中一些通用功能的抽象出来提供服务的一类软件统称。它屏蔽掉了底层操作系统的复杂性,向上提供一个统一的开发环境,降低了软件系统开发的复杂度,由于中间件是介于操作系统和应用软件之间,为应用软件提供服务功能的软件,由于介于两种软件之间,所以称为中间件。

常见的的开源中间件有下面几种,组合起来就能搭建一个完整的分布式后台服务系统:

版本控制

大型软件项目的代码量巨大,如何有效组织和管理源码和版本,于是产生了版本控制系统。版本控制系统就是我们常说的SVN或Git,用来追踪、维护源码、文件以及配置文件等等的改动,并且提供控制这些改动控制权的程序。

常见的版本控制系统分为两大类:集中式版本控制和分布式版本控制。作为后端开发工程师,版本控制系统的使用也是必须掌握的基础技能,不过这些系统一般都是边使用边熟悉,刚开始熟悉一些常用操作就好。

工具

编辑器

在Linux下开发肯定离不开Vim或者Emacs,这两个都是常用的编辑器,已经形成了两大爱好者阵营。特别是Vim编辑器,学习成本有点高,配合上各种插件和配置,有些Vim爱好者已经把它当成IDE来用了,一旦掌握可以大幅提升工作效率,值得你去学习。

当然除了Vim如果是文字编辑工作,比如写README文档或者写技术博客,那么强烈推荐学习下Markdown语法,这是一种种轻量级标记语言,它允许人们使用易读易写的纯文本格式编写文档,注重内容本身不用过多的调整排版。Markdown编辑器推荐Typora、有道云笔记Markdown编辑器、VSCodeMarkdown插件。

IDE

编辑器作为小工程还可以胜任,不过后端开发工作中,一般都是大型的软件工程项目,所以不大可能用编辑器来管理,这时候就需要学习使用专业的集成开发工具。

集成开发环境(IDE,IntegratedDevelopmentEnvironment)是用于提供程序开发环境的应用程序,一般包括代码编辑器、编译器、调试器和图形用户界面等工具。

磨刀不误砍柴工,挑一把趁手的兵器再去编程世界遨游。各语言IDE五花八门,推荐JetBrains系列和VSCode,JetBrains产品包括各语言开发的一系列的IDE,特别是Java的IntellijIDEA口碑非常不错,部分对应的产品系列如下。

VisualStudioCode(简称VSCode)是一个由微软开发,同时支持Windows、Linux和macOS等操作系统的免费代码编辑器,它支持测试,并内置了Git版本控制功能,同时也具有开发环境功能,例如代码补全(类似于IntelliSense)、代码片段和代码重构等。该编辑器支持用户个性化配置,例如改变主题颜色、键盘快捷方式等各种属性和参数,同时还在编辑器中内置了扩展程序管理的功能。

在2019年的StackOverflow组织的开发者调研中,VSCode被认为是最受开发者欢迎的开发环境。

测试

软件工程师不仅要写代码,还要做测试,软件测试和软件开发是相伴相生,测试能让保证我们写出代码更加健壮和可维护。

TDD是测试驱动开发(Test-DrivenDevelopment)的英文简称,是敏捷开发中的一项核心实践和技术,也是一种设计方法论。TDD的原理是在开发功能代码之前,先编写单元测试用例代码,根据测试代码确定需要编写什么产品代码。需要掌握和了解以下测试技术和方法。

学习顺序

总结下,后端技术学习的内容还是很多的,不可能一蹴而就。

我就按个人的学习经验并结合认识的大厂高P给的建议,给你把以上技术路线学习优先级做个排序,你照着学就行。

THE END
1.大数据包含结构化数据,非结构化数据,半结构化数据,怎么理解结构化?相比于非结构化数据和半结构化数据,结构化数据在存储和处理上更加方便。由于数据格式明确,可以进行系统化的建模、查询和分析,使得结构化数据更容易被机器理解和处理。结构化数据也更容易被应用于统计分析、数据挖掘、机器学习等领域,因为这些方法通常要求数据的结构和关系已经明确定义。https://blog.csdn.net/xukris/article/details/135378353
2.在大数据中,如何理解结构化和非结构化数据形态处理非结构化数据是大数据分析的重要挑战,也是挖掘潜在价值的关键所在。总结来说,在大数据中,理解结构化数据与非结构化数据的概念意味着认识到数据的多样性与复杂性。结构化数据以其清晰的结构和易于查询的特点,适用于传统的数据管理和分析方法;而非结构化数据则要求采用更为灵活、适应性强的技术手段来处理其自由https://baijiahao.baidu.com/s?id=1794424633482336919&wfr=spider&for=pc
3.大数据分析中数据类型有哪些帆软数字化转型知识库大数据分析中数据类型主要包括:结构化数据、半结构化数据、非结构化数据。其中,结构化数据是指那些可以存储在关系型数据库中的数据,格式固定且易于搜索和分析。结构化数据通常包括数字、文本和日期等,可以通过SQL语言进行查询和操作。具体来说,结构化数据的优点在于其高度组织化和便于检索,广泛应用于金融、医疗和电商等https://www.fanruan.com/blog/article/57480/
4.大数据结构化与非结构化大数据可以分为结构化数据和非结构化数据两种形式。 结构化数据是指以表格或类似形式进行组织的数据,具有明确定义的字段和类型,例如关系型数据库中存储的数据,如客户信息、销售记录等。结构化数据通常便于存储、管理和分析。 非结构化数据是指没有固定格式或组织形式的数据,如文本、图像、音频、视频等。这些数据不容易http://www.360doc.com/content/23/1114/20/75092861_1104044382.shtml
5.大数据基础术语精粹来袭NoSQL数据库的产生就是为了解决大规模数据集合多重数据种类带来的挑战,尤其是大数据应用难题。 十三:结构化数据 结构化数据(即行数据,存储在数据库里,可以用二维表结构来逻辑表达实现的数据)而言,不方便用数据库二维逻辑表来表现的数据即称为非结构化数据,包括所有格式的办公文档、文本、图片、标准通用标记语言下的http://www.mudan.gov.cn/2c908084831c4eb30183205259ac001f/2c908084831c4eb3018320df837d0020/1669185201282129920.html
6.数据架构:大数据数据仓库以及DataVault这里的全体数据包括与企业中各类型数据相关的所有事项。 进一步细分企业中的全体数据有很多种方式。一种细分方式(但是肯定不是唯一方式)是将全体数据划分为结构化数据和非结构化数据,如图1.1.2所示。 结构化数据是一种可预见、经常出现的数据格式。通常,结构化数据包括记录、属性、键和索引等,可以通过数据库管理系统(https://www.ituring.com.cn/book/tupubarticle/11854
7.1+X大数据财务分析职业技能等级标准3.4 结构化数据 structured data 一种数据表示形式,按此种形式,由数据元素汇集而成的每个记录的结构都 是一致的并且可以使用关系模型予以有效描述。 3[GB/T 35295-2017,定义02.02.13] 3.5 非结构化数据 unstructured data 不具有预定义模型或未以预定义方式组织的数据。 https://www.scsw.edu.cn/kjx/info/1014/1054.htm
8.大数据中非结构化数据的挖掘:文本非结构化数据是大数据数据多样化的的一个特点,而点击流中的数据是多样化数据的一部分。依托强大的网站分析工具,可以得到最细粒度的原始数据(Raw Data),如果这些原始数据仅仅用来看看报表,那意义太小。非结构化化数据包括文本、视频、文档、音频、甚至地理位置信息等等,本篇介绍的是点击流中的非结构化数据的文本挖掘应https://www.51cto.com/article/432085.html
9.银行专岗计算机考试大纲大数据包括结构化、半结构化和非结构化数据,非结构化数据越来越成为数据的主要部分。据IDC(互联网内容提供商)的调查报告显示,企业中80%的数据都是非结构化数据。 1.结构化数据 包括预定义的数据类型、格式和结构的数据。如:关系数据库中的数据。 2.半结构化数据 具有可识别的模式并可以解析的文本数据文件。如:XMhttp://www.yinhangzhaopin.com/yhks/yhbs/1/96117.html
10.大数据的详细定义大数据包括哪些类型:什么是结构化、非结构化和半结构化数据? 根据数据集的结构和建索引的难易程度,数据集通常被分为三类。 三种类型的大数据 结构化数据:这类数据最容易整理和搜索,主要包括财务数据、机器日志和人口统计明细等。结构化数据很好理解,类似于 Excel 电子表格中预定义的行列布局。这种结构下的数据很容易https://blog.itpub.net/70041355/viewspace-3029299/
11.非结构化数据与大数据的关系及影响合理地利用非结构化数据,并运用先进的技术和算法对其进行处理和分析https://www.gokuai.com/press/a184
12.简述大数据有哪些数据类型(大数据简介与特点)(ii)多样性– “大数据”的下一个方面是它的 多样性。 多样性是指异构来源和数据的本质,包括结构化和非结构化。在早期,电子表格和数据库是大多数应用程序考虑的唯一数据源。现在,在分析应用程序中也考虑了电子邮件,照片,视频,监控设备,PDF,音频等形式的数据。这种各种非结构化数据对存储,挖掘和分析数据提出了一些https://m.xitongzhushou.com/jiaocheng/26601.html
13.非结构化数据分析:大数据时代新价值什么是“非结构化数据”?相较于记录了生产、业务、交易和客户信息等的结构化数据,非结构化的信息涵盖了更为广泛的内容,包括了如合约、发票、书信与采购记录等营运内容;如文书处理、电子表格、简报档案与电子邮件等部门内容;如HTML与XML等格式信息的Web内容;以及如声音、影片、图形等媒体内容。 https://www.cda.cn/view/290.html
14.非结构化数据怎么治理?最近遇到几个项目,都跟非结构化数据脱不开关系。老彭刚毕业的时候,做的是数据库的活儿,那都是结构化数据。后来有了hadoop技术,可以用来处理物联网、互联网的半结构化数据。真正做非结构化的场景还是比较少的,大多是在项目中选取一两个点给意思意思一下。https://www.niaogebiji.com/article-139650-1.html
15.大数据的类型和特点非结构化数据和结构化数据的组合是半结构化数据。因此,它包含了结构化数据的一些特征,但也缺乏清晰的组织,不遵守关系数据库或数据模型的官方格式。例如,半结构化数据经常出现在XML中。 这些类型的数据在大数据应用中都有重要的作用,数据的类型和特点也决定了需要使用什么样的技术和工具进行处理和分析。https://www.013kj.cn/info_view.php?VID=789
16.IBMCloudObjectStorage在银行业非结构化数据存储嘲下的对象正是基于以上这些非结构化数据面临的问题,选择适合非结构化数据存储的整体解决方案,解决当前存储在问题,提升业务系统的服务。 如下图所示给用户一个更为直观的角度,从文件数量、容量、是否结构化的角度来对待不同的存储类型。旧的存储模式已是瓶颈,对象存储和传统集中式存储在数据量级和文件数量级不同时各自适合的应用https://redhat.talkwithtrend.com/Article/242823
17.什么是非结构化数据?在当今数字化的世界中,数据的多样性和海量性已经成为了一个普遍的现象。除了传统的结构化数据,我们还面临着大量的非结构化数据。非结构化数据指的是缺乏明确的数据模式和格式,数据来源多样的数据类型。在本文中,我们将探索非结构化数据的定义、特点以及其在不同领域的应用。 https://www.filez.com/news/detail/974a6ef096d0b214bf7e13a2218d4e30.html
18.了解结构化数据与非结构化数据的差异阿帕奇 Hadoop。适用于结构化、半结构化和非结构化数据的大数据框架。 阿帕奇火花。使用数据帧实现大规模处理、数据流和结构化数据分析。 什么是非结构化数据? 非结构化数据是不遵循固定结构格式的数据。数据模型是无模式的,无法使用传统的数据处理方法。 https://www.360doc.cn/article/68899713_1124424478.html