1.服务器是不是电脑主机?有什么作用

2.服务器系统与操作系统有什么区别?

3.谁能告诉我什么是“服务器”。

4.服务器也是一种电脑,哪它会像普通电脑一样有受电脑攻击的可能吗?

5.服务器与普通电脑之间的区别是什么?

服务器本质是电脑系统吗_服务器是电脑吗?

服务器通俗的讲就是一种空间,可以存放东西的空间,还有可以说服务器就是一台性能更高,计算能力更强,而且一直通着电的电脑。

说它是一种空间是因为服务器可以存放东西,一般服务器的用法就是运行项目,但其实可以用的方向很多,比如用于当做一个电子档案库,存放文件,或者用作是云端的一个硬盘去使用,部署FTP,上传下载文件。

为什么说服务器是电脑呢,其本质其实就是一台超级电脑,电脑是用来计算的,可以运行软件,存储数据,提供计算服务。但是往往都是使用服务器来提供计算和服务,原因就是因为我们日常用的网站,手机软件,需要持续不断的访问,或者说需要在任意的时间都可以持续的访问,如果仅仅是电脑的话,一方面散热能力不行,一方面持续的运行会加快寿命的缩短,所谓术业有专攻,所以服务器就主要用来运行程序。

专业一点说服务器就是提供服务的机器,如何提供服务,提供什么服务。这里的服务指的就是我们日常用的各种服务软件,那提供服务的方式举个例子,比如一个网站,就是先部署网站的数据库,运行网站的容器,例如tomcat,网站项目,ja的话就是war包,然后启动起来之后就可以对外提供服务了。

服务器是不是电脑主机?有什么作用

服务器与个人计算机有本质的区别。首先个人电脑大多每天都会关机,而服务器经常是常年累月不关机不重启的。个人电脑注重易操作性,界面要美观(因为你天天盯着它看,不好看的话会影响你心情);服务器系统几乎可以完全忽略美观,甚至可以不需要图形界面。\x0d\了解了两者的区别,你就很容易理解为什么专业的服务器大多都不用windows了。\x0d\windows的桌面系统(XP、7、8都是桌面版操作系统)做得很好,至少比现在市场上大多数linux桌面版本要好。但是它的服务器系统(NT、2003、2008、2012都是),不能说一无是处,但它确实比Ulinx不止差一点(这里需要指出一点,专业服务器上面很少有用linux的,一般都是Ulinx,但linux是由Unix发展而来,并且与Unix非常接近)。稳定性、安全性都要弱很多。有人说windows的安全性低是因为用户数庞大所以很多人去研究它的漏洞,Unix/linux安全性高是因为没多少人去研究它,这个现在也没有谁能证明。但无论如何,摆在眼前的现实是windows一年要打N多个补丁,如果windows是一件衬衫的话,我估计它现在的厚度已超过了棉袄。而Unix/Linux漏洞虽然偶尔也有,但数量上与windows是无法相提并论的。\x0d\一般来说,中小型网络会有人使用windows作为服务器。如果是千台以上电脑的大中型网络,服务器操作系统毫无疑问是Unix的天下。\x0d\补充一点:有人说Unix/Linux免费,windows不免费。其实即使是对于一个百来台电脑的小型网络来说,购买一个服务器操作系统所需的费用也是几乎可以忽略的成本。何况Unix也并非完全免费。虽然用Unix的初期成本低,但它的易维护性却比windows要低很多。使用windows服务器,一个普通网管就可以搞定,月薪只需三五千。使用Unix服务器,有能力维护它的技术人员月薪至少也得六八千。

服务器系统与操作系统有什么区别?

理论上电脑可以作为服务器使用,但是必须保证电脑使用公共IP,任何连接到互联网的电脑都可以通过这个IP访问。其次,电脑作为服务器有三大缺点:

第一,带宽问题

一般家用电脑的带宽在512KB-2MB左右,有的是4M。然而,这种规模的带宽可以同时容纳非常有限的在线用户,最多约20个。如果用户数量增加,网站就会拥堵或者无法正常打开。

如果是个人类型的小网站,或者只供某些小群体浏览,勉强可以支持,但如果对外开放推广,就很难满足需求。

第二,在线时间问题

毕竟家用电脑不是真正的服务器,不能长时间在线工作。几天或几周后,电脑将不得不关机并休息。此时网站无法正常访问,用户会有一定程度的损失。而一台真正的服务器可以在线几个月甚至几年,大大保证了在线时间。

第三,安全问题

哪怕是安全防火墙或者安全软件,都是普通的非专业版,很难保护主机,有可能出现信息泄露或者网站关闭的情况。

大多数真实的服务器都配备了专业的软硬件保护,并有专业人员24小时提供技术支持,在安全性上可以更加安全。

虽然我们可以理解个人站长没有足够的资金支持,希望最大限度的节约成本,但从任何角度来看,个人电脑都不适合作为服务器使用,所以我们可以考虑租用服务器来降低费用。

谁能告诉我什么是“服务器”。

操作系统说的是能够使计算机硬件正常工作的软件 它的范围很大包括pc机系统 服务器系统 还有专业操作系统 服务器也属于操作系统 但是他是用来做服务器的 比如windows2003 2008 他可以做成大型网站 等等的服务器 像xp就是个人计算机的系统 功能较少 不能做服务器 但是 硬件要求低

服务器也是一种电脑,哪它会像普通电脑一样有受电脑攻击的可能吗?

在谈到服务器之前,我们有必要先了解一下什么是计算机网络。从组成结构来讲,计算机网络就是通过的设备和连线,将分布在相同或不同地域的多台计算机连接在一起所形成的集合。从应用的角度讲,只要将具有独立功能的多台计算机连接在一起,能够实现各计算机间信息的互相交换,并可共享计算机的系统便可称为网络。随着人们在半导体技术(主要包括大规模集成电路LSI和超大规模集成电路VLSI技术)上不断取得更新更高的成就,计算机网络迅速地涉及到计算机和通信两个领域。一方面通过网络为计算机之间数据的传输和交换提供了必要的手段,另一方面数字信号技术的发展已渗透到通信技术中,又提高了通信网络的各项性能。计算机网络从诞生至今,一共经历了四个阶段的发展过程。

第一代计算机网络大约产生于1954年,当时它只是一种面向终端(用户端不具备数据的存储和处理能力)的计算机网络。 1946年,世界上第一台计算机(ENIAC)问世。此后的几年中,计算机与计算机之间还没有建立相互间的联系。当时,电子计算机因价格和数量等诸多因素的制约,很少有人会想到在计算机之间进行通信。1954年,随着一种叫做收发器(Transceiver)的终端研制成功,人们实现了将穿孔卡片上的数据通过电话线路发送到远地的计算机上的梦想。以后,电传打字机也作为远程终端和计算机实现了相连。

第二代计算机网络出现在1969年。刚才我们已经谈到了,早期的第一代计算机网络是面向终端的,是一种以单个主机为中心的星型网络,各终端通过通信线路共享主机的硬件和软件。而第二代计算机网络则强调了网络的整体性,用户不仅可以共享主机的,而且还可以共享其他用户的软、硬件。第二代计算机网络的工作方式一直延续到了现在。如今的计算机网络尤其是中小型局域网很注重和强调其整体性,以扩大系统的共享范围。

第三代计算机网络出现在70年代。从所周知,早期计算机之间的组网是有条件的,在同一网络中只能存在同一厂家生产的计算机,其他厂家生产的计算机无法接入。这种现象的出现,一方面与当时的环境有关,因为当时的计算机还远远没有现在这样普及,一个大单位能够用上一台计算机就算不错了,更谈不上实现计算机之间的互联;另一方面与未建立相关的标准有关,当时的计算机网络只是部分高等学府或笠研机构针对自己的工作特点所建立的,还未能在大范围内(如不同的单位之间)进行连接,并且也缺乏一个统一的标准。针对这种情况,第三代计算机网络开始实现将不同厂家生产的计算机互联成网。17年前后,国际标准化组织成立了一个专门机构,提出了一个各种计算机能够在世界范围内互联成网的标准框架,即著名的开放系统互联基本参考模型OSI/RM。简称为OSI。OSI模型的提出,为计算机网络技术的发展开创了一个新纪元。现在的计算机网络便是以OSI为标准进行工作的。

第四代计算机网络是在进入20世纪90年代后,随着数字通信的出现而产生的,其特点是综合化和高速化。综合化是指用交换的数据传送方式将多种业务综合到一个网络中完成。例如人们一直在用一种与计算机网络很不相同的电话网传送语音住处但是,现在已经可以将多种业务,如语音、数据、图像等住处以二进制代码的数字形式综合到一个网络中来传送。

诸位不要以为笔者写走题儿了,介绍计算机网络的组成不过是为了把何谓服务器讲得更浅显些做个铺垫,因为四代计算机网络都是由服务器、工作站、设备和通信协议组成。而本文要向读者诸君介绍的服务器(Server)也正是整个网络系统的核心,它的存在就是为网络用户提供服务并管理整个网络的设备。服务器从外型来看,和普通的PC并没有什么两样,但其内部结构却与普通的个人PC机有着本质的不同。

如主板结构。服务器的主板从整个板型看,规格上比普通的ATX等类型主板都要大一些,但是仍然符合ATX标准。主要是由于特殊部件比较多,所以在布局方面和普通主板不尽相同。由于服务器主板对稳定性的要求非常高,因此在电气结构上,服务器主板比普通PC主板要求技高一筹,从电流输入开始,服务器主板便大多用了双电源设计,以防止意外发生。服务器主板的电源接口大都远离重要部件如CPU插槽和内存插槽。输出电路种大量用了滤波电容和线圈,使得输出的电流尽量干净。而一般主板在电源接口上就没有这么讲究。电源接口和CPU插槽非常近,从电源接口的输入电流和对CPU供电电流进 行稳压和滤波的电容和线圈位置非常近,很难避免互相干扰。由于服务器数据处理量很大,所以大都用多CPU并行处理结构,主板上有偶数个CPU插槽。值得一提的是,在服务器主板上,CPU插槽边上大都有很多电解电容,是做滤电流杂波用的。理想的滤波应该是多个不很大电容来进行,这样既可以保证杂波被过滤 掉,又不会降低电流。服务器的最大特点是数据总线和地址总线上的负载比较大,I/O流量也比 较服务器主板一般都有多个超级I/O芯片,分别控制不同设备,以及多个总线驱动芯片增强负载能力,提高信号质量。为了减缓I/O瓶颈压力,一般应用SCSI接口磁盘系统。另外,由于服务器对于图形和声音要求都不算太高,所以很多服务器主板上都集成了声卡和显示卡。但是为了进一步减少CPU占用率并提高稳定性能,在硬声卡和显卡方面大多用ATI公司的显示芯片和新加坡CREATIVE(创新)公司的声卡芯片。与此同时,在服务器主板上还经常集成有网卡芯片(如INTEL公司的82559)和RAID卡槽等。

如性能指标。服务器的性能指标是以系统响应速度和作业吞吐量为代表的。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。定用户不间断地输入请求,则在系统充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统,充分发挥系统能力,用尽量少的满足用户要求,达到为更多用户服务的目的。

如扩展性能。服务器的可扩展性能与普通个人PC的升级有着本质的不同,其具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。

如可用性。服务器的可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如99.9%的可用性表示每年有8小时的时间设备不能正常运行,99.999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换机构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行,而且要使系统能及时恢复到正常的部件冗余程度。

如可管理性。可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用,最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即取措施保护企业数据资产,故障部件更换的操作也非常简单方便。

由上所述,网络时代为服务器的应用提供了越来越广阔的空间,在网络技术和应用快速发展的今天,作为网络核心的服务器其重要性日益突出,服务器也由此进入了技术、应用和市场互动并迅速发展的新阶段。Unix操作系统由于其功能强大、技术成熟、可靠性好、网络及数据库功能强等特点,在计算机技术特别是操作系统技术的发展中具有重要的不可替代的地位和作用。尽管Unix系统受到了NT的严峻挑战,但它仍是目前唯一能在各个硬件平台上稳定运行的操作系统,并且在技术成熟程度以及稳定性和可靠性等方面仍然领先于NT。但在WINDOWS的不断追击下,Unix系统转向IA-64体系也是大势所趋,这里我们不妨来进一步看一下其经历的历程。

1994年,HP和Intel公司联合开发基于IA-64的Merced芯片。

19年12月,Sun宣布将其基于Unix的操作系统Solaris向IA-64体系移植。

1998年1月,Compaq/Digital公司宣布与Sequent合作,将Digital Unix操作系统和Sequent的产品集成,向IA-64转移。

1998年4月,SGI宣布将其主流产品向IA-64转移。

1999年1月,IBM宣布开发支持下一代IA-64架构的Unix操作系统,将SCO的UnixWare以及Sequent的高端PTX操作系统纳入自己的AIX环境,形成一个专门针对IA-64或Merced的Unix,同年,IBM收购Sequent。

因此,Unix系统转向IA-64体系已成为业界的大趋势,最重要的是,诸多Unix厂商对它的支持将打破以往Unix和Wintel两大阵营的对立,将Unix所具备的开放性发挥到顶峰,真正实现应用系统的跨平台使用,为用户提供最大的灵活性。

与IA-32位处理器相比,IA-64位处理器除增加数据宽度外,还结合CISC和RISC技术,用显式并行指令计算(EPIC)技术,通过专用并行指令编译器尽可能将原代码编译解析为可并行操作的“并行机器码”,完全兼容IA-32应用,保证了用户的可持续使用性。

服务器与普通电脑之间的区别是什么?

服务器当然和普通电脑一样会中

没有例外

包括楼上说的AIX服务器,同样中

你认为世界上有最强的盾和最强的矛吗?

最强的矛强还是最强的盾强呢?

只能说。不同的服务器使用不同的专业级防火墙,在实际应用中有区别。他们比普通电脑预防的能力更强而已

服务器的工作原理和电脑的工作原理几乎没有太大本质上的区别

普通电脑同样可以用来完成服务器的大部分工作

你可以把服务器看成是普通电脑在某一领域的升级版

服务器的CPU更强,专用的主板,他有可挂数十个硬盘的磁盘列阵

它运行的系统可以是LINUX或WINDOWS的网络版

而且他运行的网络协议更多

他的内存和普通机的内存不同

他的内存是ECC内存,叫纠错内存,具有发现错误和纠正错误的功能。普通电脑不具备

服务器其实就是一种高性能的电脑。

他的构成和微机基本一致

他就是拿来在网络上为客户机提供各种服务的高性能计算机

区别的话

除了性能更高外,他们在使用带宽要求上不一样

家用电脑,一般也就128K~1.5M,光纤1G

服务器最少要求5M,有百兆,千兆,至少要保证千人访问而不卡

至于刚说到的

家用机用的都是些家用防火墙,硬件防火墙

而服务器用的都是专业版的防火墙,专业级的哦

当然,价格上来说,天差地别,防黑能力更强

只说更强,没说百分百无侵害

目前使用服务器的站长和企业也比较多,也许有人会觉得二者差不多。从表面上看,服务器和我们日常用的PC电脑都是由CPU、内存、硬盘等部分组成,那么,服务器与普通电脑有什么区别呢?

1、服务器CPU设计的可连续运行时间长,基本都是设计为能常年连续工作的,而普通桌面级CPU是按72个小时连续工作而设计的。

2、服务器CPU支持多路互联,简单的说就是1台机器可装很多CPU,普通桌面级CPU不支持这种工作方式。

3、服务器CPU往往首先运用先进的技术如近期才在普通桌面级CPU出现L3缓存,服务器CPU很早就运用了。

4、内部指令集二者也会根据不同有所差异。

5、二者接口也不同,一般PC电脑放在自己家里,拉的普通宽带;而服务器都放在机房,大带宽接入。

6、性能:服务器需要及时响应众多客户端的请求,并提供相应服务,PC一般只由少数人操作;尤其是网络性能,对PC来讲如果不联网,没有网卡,PC仍是PC,而对服务器来讲没有网卡就不是服务器了,因为,服务器的定义就是在网络中给其它计算机提供服务的计算机系统。

7、图形显示、键盘和鼠标的要求:普通台式机和显示器、键鼠等都是一对一的,而且,一般对显卡性能有要求,服务器不直接和用户交互对显卡性能基本无要求,一般键盘鼠标显示器是多台共用的。

8、扩展性:PC一般不需要很多外插卡,对扩展性要求不高,而服务器一般需要考虑增加网卡、RAID卡、HBA卡等;另外,扩展性还包括,内存、硬盘等存储位、电源,甚至是CPU的扩展,这些更是服务器的特性。

服务器CPU入门级的一般是对普通CPU做了服务器化,支持多路互联和长时间等,性能没有提升,价格更高。高端则是运用大量的先进技术,价格贵。在机房进行服务器租用和服务器托管业务的服务器CPU一般不适合家用和,由于其自身特性,价格高反而游戏等性能低,日常家用也不会连续运行一周以上吧。

服务器是计算机的一种,它是网络中一种为客户端提供不同服务的高性能的计算机,它是在网络操作系统的控制下,将与其相连的硬盘、磁带机、打印机、Modem及昂贵的专用通讯设备提供给网络上过得客户端共享,也能为网络用户提供集中计算、信息发布及数据管理等服务。

从功能上讲: 服务器,简单地说就是为别的电脑提供服务的电脑,任何配置的电脑都可以做服务器,比如说你的电脑上共享了一个文件夹,所有其他电脑的文件都保存在这个文件夹里,那你的电脑就是一个文件服务器;而专业的服务器所提供的服务就很多了,如数据库服务、DHCP服务、DNS服务、RAS服务、活动目录服务等等。

从硬件上讲,所谓服务器,就是一台为提供服务优化了的PC,比如服务器需要24小时不间断的开机状态,这就需要服务器具有良好的散热性能。普通PC你开一个月不关机试试……服务器的好坏不在于配置的高低,而在于运行的稳定性,大内存、高性能CPU、高性能主板、电源,外加一个UPS不间断电源,基本就组成了一台实用的服务器。

任何电脑都可以做服务器,就好象任何人都可以唱歌一样,只不过业余的没有专业的唱得好,同时,也没有歌星出名罢了,要把你的电脑配置成一台网络上的服务器,需要有足够的带宽,内存;带宽不够的话,人一多就掉线;内存不够的话,人一多机器就瘫痪。 个人计算机和服务器都是计算机,但,两者有着明显的区别,因此,前者称个人PC机,后者以服务器自称!

服务器与PC的区别应该从硬件和软件两方面来看,根据应用的不同两者的差别很大,打个比方,PC就是那什么都会的门诊医生,但是医术不是那么精湛,而服务器就应该是某个方面的专家了,处理能力越出

众,它“专”的就越厉害。我先从硬件上,根据各个组件说说他们的不同:

1.CPU 服务器CPU的指令一般是用的RISC(精简指令集)。根据研究,在大多数的应用中,CPU仅仅使用了很少的几种命令,于是研究人员就根据这种情况设计了该指令集,运用集中的各种命令组合来实现各种需求。这种设计的好处就是针对性更强,可以根据不同的需求进行专门的优化,处理效更高。相对应的则是CISC(复杂指令集),他的特点就是尽量把各种常用的功能集成到一块,例如我们常常听到的MMX,SSE,SSE+,3D!NOW!等等都是这种类型的。另外,服务器的CPU设计一般都要考虑它的多路功能,说白了就是好几个甚至上千上万个CPU一起工作的问题,而PC则简单多了,这种多路功能用上实在浪费,而它的价钱也的确是上面兄弟说的,不是谁都能受的了的。(补充:服务器的寻址能力很早前就是64位了;APPEL用的指令集也是RISC,他是个另类,不过现在已经投靠INTEL了)2.内存。内存在服务器上的原则也上越快越大越好,不过它对纠错和稳定提出了更高的要求,比如ECC("错误检查和纠正"好象没人这么叫的)。我们现在使用的PC上很少有人能够用到1G的内存(玩游戏的不算),而在服务器上,这G级的内存有时也会显着捉襟见肘,记得去年国家发布最新超级计算机时,他的内存更是达到了1个T;相比内存的速度,人们在应用的时候更优先考虑内存的稳定和纠错能力,只有在保证了这两条,才能再考虑别的东西。

3.硬盘。硬盘性能无论是在PC上还是服务器上,性能的提升一直很缓慢,个人认为,依靠机械的发展,硬盘的发展是不可能出现质的飞跃。由于使用服务器的一般都是企业单位,里面都是保存了大量珍贵数据,这对硬盘就提出了安全稳定的要求,硬盘上出现的相关技术也基本上围绕这两个要求转。比如:数据冗余备份,热插拔等。另外,服务器硬盘必须能做到24*7不间断工作的要求。

4.主板.这个我了解的比较少,很少看到服务器有主板的说法,不过我觉得应该提提服务器的总线设计——多路,就是多个CPU如何能够协调工作。有兴趣建议你看看操作系统方面的书,看老外写的,很好!

5.显卡.除了图形和3D设计(那个人家好象都叫工作站,哪位达人知道请告诉我对不对),服务器上的显卡基本上就是你只要能接上显示器能显示就行!

接下来我说说软件,软件就主要指操作系统,比如我们熟悉的NT,2000 SERVER,2003 SERVER,LINUX,SOLRAIS和UNIX等等,都是专门针对服务器设计的,比如:负载均衡,多路CPU的支持。

服务器首先稳定性极高,寄放在电信空调房里,可以整个一年都不关机,不重启的。一般CPU都是用至强处理器,频率相同的话,要比普通CPU高出N倍的价钱,速度很快。硬盘一般都用10000转的,而且基本上都有磁盘阵列,读写速度高出许多。