[开源可扩充处理器架构.源代码.].Sun.CMT.MultiThread.WP

合集下载

基于LEON开源微处理器的双核SoC平台构建

基于LEON开源微处理器的双核SoC平台构建
LO E N开 源微 处理 器核 的双核 SC平 台的构 建方案 。介 绍 了L O o E N开源微 处理 器软核 ,通 过 复 用 开 源 的硬 件 I 软核 完成 了硬 件 平 台的设 计 ,并 基 于此 双 核 平 台 完成 了软件 设 计 ,实现 了 P
JE P G的D P S 解码 。
速度 可 以达 到08 M P / z . I sMH 5
(S )开 发 的3 位S A CV 架构 的微 处理器 ,其 EA 2 P R 8
内部 采 用 5 流 水 线 和 哈佛 结 构 ,指 令 和 数 据 级
2 双 核S C 台的构 建 o平
21 设 计 思 路 .
c ce 小 可配 置 ( ̄ 4 ) ah 大 1 6 K ,并具 备硬 件乘 法 、除
维普资讯
第 1卷 0
第6 期
电子元 嚣 件 主 用
E e t n cC mp n n & De i eA p iai n l cr i o o e t o vc p l t s c o
Vo .0 . 11 No6
2 0 年6 o 8 月
Jn o8 u .2 0
不免 费 ,不 适 于低成 本双 核S C 计 。而L O o设 E N系 列微 处理器 核 由于是 开源 的微 处理器 软 核 .可提
供 V D 源 码 和 软件 编 译环 境 及 可综 合 脚 本 .因 H L 而可 为 双核 S C o 微处 理 器 核 的选 择提 供 很 好 的解
决方案。
码 后 的数据 进行 处理 。
23 硬件 系统 设计 _
复 用 开 源 的硬 件 I 具 有 许 多 功 能 . ̄ Eh re I P I ten t P

gcore 用法

gcore 用法

gcore 用法摘要:一、gcore 简介二、gcore 的安装与配置三、gcore 的使用方法四、gcore 的常见应用场景五、gcore 的优势与不足六、总结正文:gcore 是一个高性能、可扩展的分布式计算框架,主要用于大规模数据处理、机器学习、深度学习等领域。

它基于C++编写,提供了Python 和C++两种编程接口,具有高性能、易用性、可扩展性强等特点。

二、gcore 的安装与配置gcore 的安装过程相对简单,只需遵循官方给出的安装指南即可。

首先,需要确保系统已安装好C++编译器、Python 以及相关依赖库。

然后,根据官方文档或教程,进行编译、安装和配置。

三、gcore 的使用方法gcore 的使用方法主要包括以下几个方面:1.初始化gcore 环境:在程序开始时,需要调用gcore::init() 函数来初始化gcore 环境。

2.创建计算图:使用gcore::Graph::create() 函数创建一个计算图对象。

3.添加操作:将需要执行的操作添加到计算图中,如数据读取、计算、数据写入等。

4.编译和执行:使用gcore::Graph::compile() 和gcore::Graph::run() 函数编译和执行计算图。

5.释放资源:在程序结束时,调用gcore::Graph::destroy() 函数释放计算图资源。

四、gcore 的常见应用场景gcore 主要适用于以下场景:1.大规模数据处理:对于海量数据,gcore 可以轻松实现数据的并行处理和分布式计算。

2.机器学习:gcore 提供了丰富的机器学习算法,如线性回归、支持向量机等,可以快速构建和训练模型。

3.深度学习:gcore 支持各种深度学习框架,如TensorFlow、PyTorch 等,可以方便地搭建和训练深度学习模型。

4.图像处理:gcore 具有高性能的图像处理能力,可以进行图像识别、图像生成等任务。

五、gcore 的优势与不足优势:1.高性能:gcore 使用C++编写,充分发挥硬件性能,运行速度快。

openharmony的编译体系

openharmony的编译体系

openharmony的编译体系OpenHarmony编译体系OpenHarmony(开放鸿蒙)是由华为(Huawei)公司开源的一款分布式操作系统。

它旨在实现设备间资源的共享和协同工作,从而为各种智能设备提供统一的、无缝的使用体验。

编译是开发者使用OpenHarmony的第一步。

在OpenHarmony中,编译体系起到了关键的作用,确保项目能够正确地构建和生成可执行的二进制文件。

下面介绍一下OpenHarmony的编译体系。

OpenHarmony的编译体系主要由以下几个重要组件组成:1. 编译器:OpenHarmony采用了现代化的编译器技术,包括GCC、LLVM等。

这些编译器能够将开发者编写的高级语言代码(如C、C++等)转换成底层可执行的机器指令。

2. 构建系统:OpenHarmony使用了鸿蒙构建系统(Harmony Build System,简称HBuild),它是一个基于Makefile的构建工具。

HBuild能够自动化地处理项目的依赖关系、编译选项、链接选项等,并生成可执行的二进制文件。

3. 系统库:OpenHarmony编译体系中的系统库是开发者进行开发的基础,包括常用的标准库、网络库、图形库等。

这些系统库提供了各种常用的函数和接口,方便开发者在OpenHarmony上进行应用程序的开发。

4. 设备驱动程序:OpenHarmony的编译体系还包括各种设备驱动程序,用于与硬件设备进行交互。

这些驱动程序是为不同类型的硬件设备(如传感器、显示器、摄像头等)编写的,开发者可以通过它们与硬件进行通信和控制。

在使用OpenHarmony的编译体系时,开发者可以按照以下步骤操作:1. 配置编译环境:首先,开发者需要根据自己的开发平台(如Windows、Linux等)安装相应的编译器和构建工具。

同时,还需要下载OpenHarmony的源代码,并设置编译环境的各种选项。

2. 编写应用程序代码:接下来,开发者可以使用自己熟悉的编辑器或集成开发环境(IDE)编写OpenHarmony应用程序的代码。

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数-回复OpenEmbedded 是一个自动化构建框架,用于创建和交付嵌入式Linux 系统。

这个开源项目的目标是提供一个灵活、可扩展的基础架构,用于构建自定义的Linux 发行版。

OpenEmbedded 提供了一种方式来管理包和构建系统以及处理系统依赖关系等问题。

本文将一步一步解答OpenEmbedded MiniProgram 的参数和其相关主题。

第一步:什么是OpenEmbedded MiniProgram?OpenEmbedded MiniProgram 是一个针对OpenEmbedded 自动化构建框架设计的一个小型程序。

它基于不同的参数,可以帮助用户更方便地使用OpenEmbedded 构建他们的嵌入式Linux 系统。

第二步:OpenEmbedded MiniProgram 的参数介绍OpenEmbedded MiniProgram 提供了多个参数,让用户可以灵活控制构建过程和生成的系统。

以下是一些常见参数的介绍:1. `layers`: 用于指定OpenEmbedded 项目所需的层配置。

层是一种逻辑组织和管理OpenEmbedded 构建所需的软件包、配置文件和脚本的方式。

用户可以通过该参数指定所需的层的路径。

2. `target`: 指定目标硬件平台或设备。

不同的硬件平台或设备可能具有不同的体系结构和特点,根据不同的目标,OpenEmbedded 可以生成相应的系统。

3. `image`: 指定生成的镜像文件的类型。

OpenEmbedded 可以生成多种类型的镜像文件,如根文件系统镜像、内核镜像等。

通过该参数可以确定生成的镜像文件的类型。

4. `machine`: 确定要为哪个设备构建系统。

该参数可以指定设备的机型,以便构建针对特定设备的定制系统。

5. `distro`: 指定使用的发行版。

发行版是指基于Linux 内核的软件集成的特定版本。

openmmlab 源码解读

openmmlab 源码解读

openmmlab 源码解读在本文中,我们将深入探讨OpenMMLab源码的各个部分,以帮助读者更好地理解这个强大的机器学习框架。

OpenMMLab是由一流的研究人员和工程师开发的,它为深度学习提供了丰富的工具和库。

通过理解其源码,我们可以深入了解其背后的工作原理,以及如何优化和使用这个框架。

首先,OpenMMLab的架构设计是其核心优势之一。

它采用了模块化的设计理念,使得每个组件都可以独立地进行开发和优化。

这种设计方式不仅提高了代码的可读性和可维护性,还使得新功能的添加和现有功能的修改变得更加简单。

此外,OpenMMLab还支持多线程和GPU加速,大大提高了训练和推断的速度。

在OpenMMLab中,一个重要的组件是MMDataLayer,它负责数据的读取、预处理和增强。

通过使用MMDataLayer,用户可以方便地加载各种数据集,并对其进行必要的预处理,例如归一化、裁剪和翻转等。

这个组件的设计充分考虑了灵活性和可扩展性,使得用户可以根据自己的需求轻松定制数据增强规则。

另一个值得关注的组件是MMSegmentation,它是一个强大的语义分割工具。

MMSegmentation基于PyTorch实现,它支持多种分割算法,例如FCN、Mask R-CNN等。

通过使用MMSegmentation,用户可以方便地训练和评估分割模型,并进行可视化分析。

这个组件的源码简洁明了,易于理解和修改,为研究者提供了很大的便利。

除了上述组件外,OpenMMLab还提供了许多其他有用的工具和库,例如MMClassification、MMDetection和MMGeneration等。

这些工具和库都经过精心设计和优化,使得用户可以更加高效地进行机器学习研究和开发。

在总结部分,我们可以看到OpenMMLab是一个功能强大、易于使用和灵活的机器学习框架。

通过深入解读其源码,我们可以更好地理解其背后的工作原理和设计思想。

这不仅有助于我们更好地使用这个框架,还可以启发我们在自己的研究中应用类似的架构和技术。

open_harmony代码剖析600字

open_harmony代码剖析600字

OpenHarmony 是华为开源的分布式操作系统,旨在为不同的物联网设备提供统一的操作系统底层支持。

本文将对 OpenHarmony 的代码进行一次深入的剖析,以期帮助读者更好地理解这一开源项目的内部结构和实现原理。

一、代码架构OpenHarmony 的代码架构主要包括内核层、系统服务层和应用框架层三部分。

内核层包括了底层的硬件抽象层和内核服务层,负责处理设备的硬件接口和系统的基本运行机制;系统服务层包括了各种系统服务和管理模块,如文件系统、网络管理、内存管理等;应用框架层则提供了各种应用程序的开发框架和接口。

在 OpenHarmony 的代码中,可以看到这三个层次的代码组织结构清晰,相互之间的功能划分明确,各个模块之间的依赖关系也得到了良好的管理和维护。

这种良好的代码架构为 OpenHarmony 提供了良好的可扩展性和可移植性,使得它可以轻松地适应不同类型的物联网设备。

二、内核层代码剖析在 OpenHarmony 的内核层代码中,最为关键的部分是硬件抽象层(HAL)和内核服务层(Kernel Service)。

硬件抽象层主要负责对设备硬件进行抽象和管理,将各种硬件设备的接口和功能进行统一,为上层的系统服务层和应用框架层提供统一的硬件接口。

内核服务层则负责处理系统的基本运行机制,包括进程管理、调度管理、中断处理等。

在 HAL 部分的代码中,可以看到对各种硬件设备的抽象接口定义和实现,这些接口将各种硬件设备的底层操作进行了统一,为系统的可移植性提供了保障。

在 Kernel Service 部分的代码中,则包括了对进程管理、调度管理等基本系统调度和管理功能的实现,这些功能的稳定性和高效性对整个系统的性能和稳定性都有着至关重要的作用。

三、系统服务层代码剖析系统服务层的代码主要包括了文件系统、网络管理、内存管理等一系列系统服务和管理模块。

在文件系统部分的代码中,可以看到对文件系统的各种操作接口和功能的定义和实现,这些接口和功能的稳定性和高效性对系统的数据存储和管理都有着重要的作用。

SUN T系列服务器产品介绍

SUN T系列服务器产品介绍
Sun UltraSPARC T系列服 务器介绍
王佃华 技术支持管理部
Agenda议题
客户目前面临的问题 ULTRASPARC T1处理器介绍 ULTRASPARC T2处理器介绍
Sun合作伙伴技术培训,2008年3月
2
目前用户数据中心遇到的问题

如何在控制费用的情况下,扩展数据中心基础架构和性能?
SPECweb2005
IBM p5+ p550 rx2660 Itanium II HP
SPECweb2005 SPECjappServer2004
性能Performance 16407/884 能耗Power Usage 340W
Same
16830
2.1X
7881
Same
874
1/2
525W
1/2

最好的性能、性能/电源功耗、和性能/机架高度 最佳的数据中心适用性,包括电源功耗和机架密度 最高的计算扩展性,包括多线程和高内存
Sun合作伙伴技术培训,2008年3月
17
Sun Fire/SPARC Enterprise T5120/T5220 新一代的UltraSparc T系列平台
GA 9 Nov. 2007
• 新浪选择12台Sun Fire T1000服务器运行Solaris 10和Sun Java System Directory Server,用以代替30台运行Linux的Dell Xeon 服务器 • • • • 增加5倍的服务器性能 只占原1/4的机架空间 只消耗元1/7的电源功耗 减少维护/电源/空调的成本

1.4GHz
一个芯片上有8个核心 一个核心上有4个线程, 共32线程 一颗处理器相当于以往32 颗处理器 超过100项专利

openharmony项目结构

openharmony项目结构

一、OpenHarmony项目简介1. OpenHarmony是华为推出的面向全场景、开放原子的分布式操作系统,致力于构建开放、协作、共享的技术生态。

2. OpenHarmony的开源代码由华为公司贡献,基于Apache 2.0开源协议,旨在为全球开发者提供一个自由使用、修改和分发的操作系统评台。

二、OpenHarmony项目结构分析1. 内核层a. 内核层包括鸿蒙微内核和鸿蒙架构,提供了轻量级、高性能、低功耗的操作系统内核。

b. 鸿蒙微内核采用微内核架构,支持多内核调度和轻量级的全局锁管理,实现高效的资源调度和管理。

2. 核心服务层a. 核心服务层包括通用运行时服务框架、分布式软总线等,提供了设备驱动、内核服务和系统服务的支持。

b. 通用运行时服务框架提供了跨评台的应用框架和运行环境,可实现多设备、多场景的统一开发和部署。

3. 基础组件层a. 基础组件层包括基础设施、应用框架、媒体服务和图形引擎等,提供了多媒体、图形、安全等各类基础功能的支持。

b. 基础设施包括文件系统、网络协议栈、硬件抽象层等,实现了操作系统与硬件设备的无缝集成和互操作。

4. 应用框架层a. 应用框架层包括应用环境、交互框架、数据存储等,提供了多样化的应用支持和开发工具。

b. 应用环境包括应用容器、安全容器和容器引擎等,实现了不同应用的安全隔离和多租户共享。

三、OpenHarmony项目优势与特点1. 开放原子a. OpenHarmony支持多种架构和设备类型,包括物联网、智能设备、汽车、智能家居等,构建了一体化的开放原子评台。

b. 开放原子评台提供了统一的开发接口和标准规范,降低了开发者的学习成本和开发成本,实现了软硬件的无缝集成和互操作。

2. 分布式架构a. OpenHarmony基于鸿蒙微内核和架构,实现了轻量级分布式架构和高效的分布式通信。

b. 分布式架构支持多设备、多场景的协同工作和互联互通,实现了智能硬件的一体化管理和智能服务的统一部署。

openharmony的编译体系

openharmony的编译体系

openharmony的编译体系摘要:一、OpenHarmony 编译体系简介- 什么是OpenHarmony- OpenHarmony 的编译体系的作用二、OpenHarmony 编译体系详解- 编译体系的基本流程- 编译体系的主要组件- 编译工具链- 编译环境- 编译选项三、OpenHarmony 编译体系的应用- 在不同平台上的应用- 开发者如何使用OpenHarmony 编译体系四、OpenHarmony 编译体系的优缺点- 优点- 高效- 灵活- 可持续- 缺点- 复杂- 需要专业知识正文:一、OpenHarmony 编译体系简介OpenHarmony 是一款面向全场景的开源分布式操作系统,其目标是为各种智能终端提供统一的操作系统平台。

而OpenHarmony 的编译体系则是支撑其操作系统能够运行在不同硬件平台上的重要工具。

它负责将OpenHarmony 的源代码转换为可执行的二进制文件,从而实现在多种硬件平台上的运行。

二、OpenHarmony 编译体系详解OpenHarmony 的编译体系包含多个组件,共同构成了一个完整的编译流程。

1.编译工具链编译工具链是OpenHarmony 编译体系的核心部分,包括了编译器、链接器、调试器等工具。

这些工具在编译过程中分别完成源代码的编译、目标文件的链接以及程序的调试等功能。

2.编译环境编译环境是OpenHarmony 编译体系的基础,包括了编译器所需的运行环境、库文件以及头文件等。

在编译过程中,编译器需要依赖编译环境来完成源代码的编译。

3.编译选项编译选项是编译体系中用于控制编译过程的参数,包括编译的目标平台、编译器的优化级别、编译的产物等。

开发者可以根据实际需求设置合适的编译选项,以满足不同场景下的编译需求。

三、OpenHarmony 编译体系的应用OpenHarmony 的编译体系可以应用于多种硬件平台,包括嵌入式设备、智能手机、平板电脑等。

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数-回复OpenEmbedded是一个开源的嵌入式Linux软件框架,它旨在简化嵌入式系统的开发和定制化过程。

它提供了一套完整的基础设施,可以使开发者轻松地构建、测试和部署嵌入式Linux软件。

作为一个全面的嵌入式Linux软件开发框架,OpenEmbedded提供了许多功能和工具,以帮助开发者在不同的硬件平台上构建和定制软件。

促进了软件模块的重用和共享,提供了一个强大的构建系统,使开发者能够快速、高效地构建和调整软件。

在开始使用OpenEmbedded之前,首先需要了解一些基本的概念和术语。

OpenEmbedded使用BitBake作为构建系统,并且使用一个名为Recipe 的文件来描述软件组件。

Recipe文件包含有关软件源代码、版本、编译选项和安装目标等信息。

此外,OpenEmbedded还使用一个名为Layer的概念,用于组织和管理软件组件和配置。

Layer类似于软件包管理系统中的仓库,可以包含一个或多个Recipe文件和相关的支持文件。

开发者可以从OpenEmbedded社区中下载和安装已经准备好的Layers,这些Layers提供了一些常见的软件组件和配置方案,可以作为开发嵌入式系统的起点。

开发者也可以自己创建和管理Layers,以定制和扩展软件组件。

为了开始使用OpenEmbedded,首先需要将OpenEmbedded代码克隆到本地系统。

然后,需要配置BitBake和OpenEmbedded的环境变量,以便在本地系统上构建和运行软件。

配置完成后,可以使用BitBake命令构建软件,例如bitbake <recipe>,其中<recipe>是要构建的Recipe 文件的名称。

构建过程可能需要一些时间,取决于软件组件的大小和复杂性。

完成构建后,生成的软件和相关文件可以部署到目标硬件平台上进行测试和调试。

可以使用开发板、仿真器或虚拟机等设备来进行测试,以确保软件在目标环境中正常运行。

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数 -回复

openembeddedminiprogram 参数-回复OpenEmbedded是一个开源的嵌入式Linux发行版构建框架,它被广泛用于构建各种Linux发行版、嵌入式系统和IoT设备。

它提供了一个灵活的、可扩展的构建工具链,能够满足不同的需求和场景。

本文将逐步介绍OpenEmbedded的参数配置以及相关内容。

1. 什么是OpenEmbedded?OpenEmbedded是一个构建系统,可以用于构建嵌入式Linux发行版。

它提供了一个从源代码到最终镜像文件的完整构建工作流程,支持多种处理器架构和操作系统。

通过OpenEmbedded,开发者可以定制自己的嵌入式系统,包括选择所需的软件包、配置文件系统、定制应用程序等。

2. OpenEmbedded的主要特点- 灵活性:OpenEmbedded支持各种处理器架构和操作系统,可以根据需求进行定制。

- 可扩展性:OpenEmbedded提供了一套模块化的构建框架,可以方便地添加或移除软件包。

- 自动化:OpenEmbedded的构建过程是自动化的,可以节省开发者的时间和精力。

- 社区支持:OpenEmbedded有一个庞大的社区和活跃的开发者,可以提供支持和解决问题。

3. 参数配置在使用OpenEmbedded构建嵌入式系统时,有一些重要的参数需要配置。

下面是一些常见的配置参数:- MACHINE:指定目标机器的配置,包括处理器架构、硬件平台等。

比如,可以设置为"raspberrypi3"表示针对树莓派3开发板进行构建。

- DISTRO:选择要构建的发行版。

OpenEmbedded提供了一些默认的发行版,如"poky"、"angstrom"等。

开发者也可以根据自己的需求定制。

- PACKAGE_CLASSES:指定软件包的类型。

有几种类型可供选择,如"package_rpm"、"package_deb"、"package_ipk"等。

开源鸿蒙OpenHarmony40Beta2发布多平台开发框架ArkUI-X首发

开源鸿蒙OpenHarmony40Beta2发布多平台开发框架ArkUI-X首发

开源鸿蒙OpenHarmony40Beta2发布多平台开发框架ArkUI-X首发8 月 7 日消息,开源鸿蒙近日在 gitee 发布了 OpenHarmony 4.0 Beta2 版本更新,带来了标准系统能力的持续完善。

此外,方舟开发框架 ArkUI-X 1.0.0 于 8 月 6 日迎来 Canary1 版本,主要能力范围包括:应用开发范式:支持基于 ArkTS 的声明式开发范式。

应用开发模型:支持 Stage 开发模型。

开发者工具:提供 DevEco Studio(IDE)和 ACE Tools(命令行)两种 ArkUI-X 应用构建工具。

混合开发能力:ArkTS 声明式开发范式和 Stage 模型支持集成在现有 iOS / Android 应用中,通过现有应用加载,解析和运行。

跨语言调用能力:提供 FFI(Node-API)和平台桥接两种机制,用于 API 扩展和平台插件开发。

基础测试调试:支持单元 / UI / XTS 集成测试和 ArkTS 断点调试。

据介绍,方舟开发框架(注:简称 ArkUI)为 OpenHarmony 应用的 UI 开发提供了完整的基础设施,包括简洁的 UI 语法、丰富的 UI 功能(组件、布局、动画以及交互事件),以及实时界面预览工具等,可以支持开发者进行可视化界面开发。

ArkUI-X 进一步将 ArkUI 扩展到了多个 OS 平台:目前支持 OpenHarmony、HarmonyOS、Android、 iOS,后续会逐步增加更多平台支持。

开发者基于一套主代码,就可以构建支持多平台应用。

更新 ArkTS 卡片刷新方式,支持通过数据代理的方式刷新内容。

ArkTS 卡片支持静态卡片配置、静态图展示。

动画效果增强,包括:布局属性、背景图片大小位置属性、显隐属性支持隐式动效,list 支持 scrollToIndex 动效、Tabs 模糊动效、popup 出现 / 消失动效,支持自定义动画,满足开发者多种多样动画诉求。

英特尔发布至强可扩展Skylake处理器 采用28核心56线程设计

英特尔发布至强可扩展Skylake处理器 采用28核心56线程设计

英特尔发布至强可扩展Skylake处理器采用28核心
56线程设计
 电子发烧友早八点讯:7月12日,英特尔举办发布会正式推出至强可扩展处理器,该系列产品被英特尔定义为十年来最大的革新,将广泛应用于数据中心、服务器。

 我们所处的时代正在发生翻天覆地的变化,身边越来越多的设备正在成为智能的设备,它们产生了丰富的数据和信息,也导致了数据的爆炸式增长。

对于政府和各行各业的企业来说,如此巨量的数据爆炸带给他们的是发展机遇,也成为巨大的挑战。

作为数据中心、服务器的核心产品,英特尔处理器需要针对这一现状产生变化,带给企业和政府更具计算力的产品,于是我们今天看到了至强可扩展。

 新的至强可扩展代号Skylake,它体现了英特尔十年以来数据中心平台领域最大的技术进步,为了凸显出产品的变革和巨大影响,英特尔一改从前使用E系列作为命名的方式,而是采用了全新的至强可扩展作为新产品的命名。

至强可扩展处理器可以为计算、网络和存储带来更具有针对性的负载优化。

可以说可扩展的特性为下一代云基础设施提供了硬件基础。

包括数据分析、人工智能、自动驾驶、高性能计算和网络转型在内的各类应用都将可以从至强可扩展当中受益。

UNIX与SUN工作站基础

UNIX与SUN工作站基础

02
03
Solaris操作系统
图形界面
Sun对Unix进行了扩展和改进, 推出了Solaris操作系统,具有更 好的安全性和稳定性。
Sun工作站支持各种Unix图形界 面,如X Window System,使 得Unix更加友好易用。
Unix和Sun工作站的未来发展
开源软件支持
随着开源软件的兴起,Sun工作站将继续支持并推动Unix 与开源软件的结合。
网络服务
Sun工作站利用Unix的强大网络功能,提供各种网 络服务,如FTP、SMTP、POP3等。
软件开发工具
Unix下的各种开发工具和环境在Sun工作站 上同样适用,方便开发者进行软件开发。
Sun工作站对Unix的支持和扩展
01
硬件优化
Sun工作站针对Unix操作系统进 行了硬件优化,提供了高性能的 工作环境。
系统备份
使用tar和gzip命令可以对系统进行备份和压缩。
网络配置命令
网络配置
使用ifconfig和ip命令可以配置网络接口参数,包括 IP地址、子网掩码等。
网络测试
使用ping和traceroute命令可以测试网络连接状态和 路径。
网络服务
使用ssh和ftp命令可以连接到远程服务器,进行文件 传输和管理任务。
随着技术的不断进步,Sun工作站逐渐发展壮 大,成为高性能计算和网络服务器的代表产品 之一。
Sun工作站的特点和优势
高性能
Sun工作站采用RISC架构, 具有高性能的计算能力和处 理速度,适用于需要大量计 算和数据处理的应用。
稳定性
开放性
Sun工作站具备高度的稳定 性和可靠性,能够保证长时 间无故障运行,适用于需要 不间断运行的关键任务应用。

dolphinscheduler源码二次开发

dolphinscheduler源码二次开发

dolphinscheduler源码二次开发【引言】随着大数据和人工智能技术的飞速发展,任务调度在各领域发挥着越来越重要的作用。

Dolphinscheduler(简称DS)作为一种开源、高性能、可扩展的任务调度框架,在国内外的应用越来越广泛。

然而,DS本身仍存在一些不足,本文将探讨如何对DS进行二次开发,以满足实际需求。

【Dolphinscheduler简介】Dolphinscheduler是一款基于Java的开源分布式任务调度框架,具有高可靠性、高可用性和易于扩展等特点。

DS提供了一套完整的任务调度解决方案,包括任务创建、任务依赖、任务分组、任务重试等特性,同时还支持多种执行器,如JVM、Shell、Python等。

【二次开发必要性】尽管DS已经具备了许多实用的功能,但在实际应用过程中,仍可能遇到以下问题:1.功能扩展:DS默认提供了一些内置的任务类型,如HTTP、JDBC、shell等,但在某些特定场景下,这些任务类型可能无法满足需求。

因此,二次开发时需要针对具体业务场景进行功能扩展。

2.性能优化:随着任务数量的增加,DS的性能可能会受到影响。

通过二次开发,可以针对性地对DS进行性能优化,提高调度效率。

3.界面美化:DS的默认界面较为简单,可能无法满足用户对于美观和易用的需求。

二次开发时可以对界面进行优化,提高用户体验。

【二次开发实践】1.功能扩展:例如,在DS中添加自定义任务类型。

首先,需要编写对应的任务执行类,实现任务的核心逻辑;然后,在DS的配置文件中添加新任务类型的配置;最后,在DS的调度逻辑中加入对新任务类型的支持。

2.性能优化:例如,针对DS的存储引擎进行优化。

可以考虑使用更高效的存储引擎(如MySQL、HBase等),或者对现有存储引擎进行索引优化,提高查询速度。

3.界面美化:例如,使用前端框架(如Vue、React等)对DS的Web界面进行重构,使其更具美观性和易用性。

同时,可以考虑添加更多可视化组件,方便用户监控任务执行情况。

dolphinscheduler源码二次开发

dolphinscheduler源码二次开发

dolphinscheduler源码二次开发DolphinScheduler 是一款分布式易扩展的可视化工作流任务调度系统,是一款非常适合用于企业级调度需求的开源项目。

它提供了完整的任务调度管理,支持并发执行任务,支持自定义任务类型以及任务依赖等功能。

对于 DolphinScheduler 的二次开发,可以基于其提供的接口和插件机制进行扩展和定制化,以满足特定的业务需求。

下面将简要介绍DolphinScheduler 的架构以及如何进行二次开发。

1. DolphinScheduler 的架构DolphinScheduler 采用分层架构,主要包含以下几个模块:- API 模块:提供 HTTP 接口,接受用户请求并将其转发给Scheduler 模块处理。

- Scheduler 模块:负责任务的调度和执行,包含调度器和执行器两部分。

- Master 模块:负责任务的管理,包括任务的创建、更新、删除等操作。

- Worker 模块:负责任务的实际执行,通过注册到 Master 上获取任务并执行。

- Alert 模块:用于任务执行状态的告警。

-DB模块:用于数据的持久化存储。

2. DolphinScheduler 的二次开发针对 DolphinScheduler 的二次开发,可以从以下几个方面入手:2.1.自定义任务类型DolphinScheduler 支持自定义任务类型,可以根据自己的需求进行扩展。

具体的步骤如下:- 实现 Task 接口并重写其中的方法,定义自己的任务逻辑。

- 在工程中创建一个名为 tasks 的子模块,并将实现的任务类型类放到此模块下。

- 在 project-ext.json 文件中配置自定义任务类型的信息,包括任务类型的标识、名称、描述等。

- 重新编译打包项目,将新的任务类型部署到 DolphinScheduler 中。

2.2.自定义插件DolphinScheduler 提供了插件机制,可以通过自定义插件来为系统增加一些特定的功能。

multicoretsne 用法

multicoretsne 用法

一、multicoretsne简介multicoretsne是一种用于高维数据降维可视化的工具,它采用了多核心并行计算的策略,能够在较短的时间内将高维数据映射到二维平面上,帮助研究人员更直观地理解数据之间的关系。

二、multicoretsne的优势1.多核心并行计算:相比传统的t-SNE算法,multicoretsne采用了多核心并行计算的策略,能够大大缩短计算时间,在处理大规模高维数据时表现出更高的效率。

2.稳定性和可靠性:multicoretsne在处理各种类型的高维数据时表现出较高的稳定性和可靠性,能够有效地保留数据间的局部结构和全局结构,为研究人员提供准确的可视化结果。

3.灵活性:multicoretsne支持多种参数设置和定制化选项,用户可以根据自己的需求进行灵活调整,获取符合自身研究目的的降维可视化结果。

4.易用性:multicoretsne提供了友好的用户界面和详细的文档说明,使用起来非常方便,即使对于初学者也能够快速上手。

三、multicoretsne的使用方法1.安装multicoretsne:在使用multicoretsne之前,首先需要安装相应的软件包和依赖项,可以通过pip或conda进行安装。

2.加载数据:将需要进行高维数据降维可视化的数据集加载到程序中,可以是Numpy数组、Pandas数据框或其他常见的数据格式。

3.参数设置:根据具体的需求,设置multicoretsne的参数,如perplexity、learning_rate、n_iter等,这些参数可以影响最终的可视化效果。

4.运行t-SNE算法:调用multicoretsne的函数来运行t-SNE算法,通过多核心并行计算快速得到高维数据在二维平面上的映射结果。

5.可视化展示:将得到的降维结果进行可视化展示,可以使用Matplotlib、Seaborn等工具进行绘图,观察数据的分布和聚类情况。

6.结果解释:根据可视化结果,研究人员可以对数据之间的关系和结构做出解释,为后续的数据分析和建模工作提供参考。

Sun将UltraSparc T2处理器开源

Sun将UltraSparc T2处理器开源

Sun将UltraSparc T2处理器开源
佚名
【期刊名称】《软件世界》
【年(卷),期】2008(000)001
【摘要】日前,Sun将其UltraSparc T2处理器的硬件设计描述完全开放,理论
上任何人都可以利用这一技术描述、复制、重建T2处理器。

这一开源版本被称为OpenSparc T2,根据GPL2.0许可协议分发,之前早在2006年3月UltraSparc T1细节就已经公布。

Sun宣称已经跟踪到了大量硬件开发人员、大学、客户社区的下载,
【总页数】1页(P114)
【正文语种】中文
【中图分类】TP332.03
【相关文献】
1.新型UltraSPARC T2处理器 [J], Sun公司
2.Sun发布OpenSPARC项目,为突破性UltraSPARC T1处理器点燃新的开源社团 [J],
3.风河与Sun联合推出基于UltraSPARC T2处理器的电信级Linux平台 [J],
4.风河与Sun联合推出基于UltraSPARC T2处理器的电信级Linux平台 [J],
5.风河与Sun联合推出基于UltraSPARC(R)T2处理器的电信级Linux平台 [J],因版权原因,仅展示原文概要,查看原文内容请购买。

物联网操作系统牛逼,这个国产系统开源了

物联网操作系统牛逼,这个国产系统开源了

物联网操作系统牛逼,这个国产系统开源了小金子程序员掘金 2022-04-09 21:30哈喽,大家好,我是小金子。

最近因为一些事情,更文有点慢,说实话今年有点难,建议大家有条件的可以日常囤点货,有备无患。

最近小金子在逛GitHub 的时候发现一个不错的开源项目,项目名为rt-thread,这个项目目前在码云上收获了 3.2K star,小金子觉得不错,值得拿出来和大家分享下。

T-Thread是一个来自中国的开源物联网操作系统,它提供了非常强的可伸缩能力:从一个可以运行在ARM Cortex-M0芯片上的极小内核,到中等的ARM Cortex-M3/4/7系统,甚至是运行于MIPS32、ARM Cortex-A系列处理器上功能丰富系统RT-Thread是一个集实时操作系统(RTOS)内核、中间件组件的物联网操作系统,架构如下:这个项目可以说是一个小而美的国产开源系统了,虽然与Windows 无法相对,但是值得推广学习。

RT-Thread的特点•资源占用极低,超低功耗设计,最小内核(Nano版本)仅需1.2KB RAM,3KB Flash。

•组件丰富,繁荣发展的软件包生态。

•简单易用,优雅的代码风格,易于阅读、掌握。

•高度可伸缩,优质的可伸缩的软件架构,松耦合,模块化,易于裁剪和扩展。

•强大,支持高性能应用。

•跨平台、芯片支持广泛。

代码目录支持的 IDE 和编译器RT-Thread主要支持的IDE/编译器包括:MDK KEILIARGccRT-Thread Studio最后,想学习这个项目的可以查看项目地址: /rtthread/rt-thread。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

M ultithreaded Application A cceleration withC hip Multithreading (CMt), M ultiCore/Multithreadu ltraSparC ® proCeSSorSUltraSPARC Processor ApplicationsWhite PaperAugust 2008Sun Microsystems, Inc.Table of ContentsIntroduction (3)Traditional single-threaded architectures have hit a wall (3)Multicore processors can still have memory latency issues (3)Chip multithreading (CMT) — a breakthrough solution (4)CMT enables more efficient use of microprocessor resources (4)Boosting telco infrastructure performance with no added cost (6)Virtualization at the chip level (7)Economy by simplification (7)Flexibility through threading (7)Near-linear crypto acceleration (8)Master and helper threads — microparallelism (8)CMT accelerates string searching (10)Fast, cost-effective virus protection (11)Eliminating the need for TCAMs (11)Conclusion (12)For more information (12)Disclosures (12)3 IntroductionSun Microsystems, Inc.Chapter 1IntroductionThe proliferation of billions of devices — ranging from 3G cell phones to netbook computers — means consumers increasingly demand instantaneous access to infor-mation, whether the latest news story or a sports video clip. To meet this burgeoning demand, the processors that power modern networks must deliver huge improve-ments in performance and throughput.Traditional single-threaded architectures have hit a wall Standard methods of increasing real-world application performance, such as higher clock speeds and pipeline branch prediction, have been yielding diminishing returns for the last few years. Higher-frequency processors waste a lot of power and generate so much heat that they need expensive HVAC systems to properly cool the systems in which they run.In addition, a critical gating factor is memory latency/speed of data access. Memory speed has grown at a much slower rate than processor speeds, because memory suppliers have focused on increasing density and lowering cost.Multicore processors can still have memory latency issues An early stage in the evolution of microprocessor design has been to group two or four conventional processor cores on a single physical die, creating a multicore processor. However, most current offerings simply replicate cores from existing single-threaded processor designs. This approach typically yields only slight improve-ments in aggregate performance, since it ignores key performance bottlenecks such as memory speed and hardware thread context switching. While multiple programs can be accommodated in parallel, the principal problem of cache misses and consequent stalling is not addressed.Chapter 2Chip multithreading (CMT) — a breakthrough solution Sun Microsystems was the first company to recognize that the speed of data access from memory was the critical bottleneck, and has overcome this problem with the chip multithreading (CMT) architecture that is the basis of the UltraSPARC® T1 and T2 processors.Figure 1. The UltraSPARC T2 processor uses two instruction pipelines per core, with four threads per pipeline, for a total of eight threads per core, and up to 64 threads per processor.Using Sun’s CMT architecture, applications are divided into active threads, and each processor core is designed to switch between up to eight threads on each clock cycle (UltraSPARC T2 processor). Even if a particular thread stalls while waiting for data to be available from memory, the core can switch immediately to another thread and the pipeline remains continuously active, doing useful work. The processor’s entire execution pipeline is thus optimized to execute active threads as much as possible, rather than be held up by any particular thread waiting for data to be available from memory. The negative effect of memory latency is therefore masked and minimized. CMT enables more efficient use of microprocessor resources The old prevailing philosophy of instruction-level parallelism (ILP) required complicated tactics, such as deep pipelines, large caches, speculative prefetches, and out-of-order execution. This resulted in complex, hot, and power-hungry processors.Core 8Core 1By contrast, thread-level parallelism (TLP) enables the use of much simpler pipelines that focus on scaling with threads rather than frequency. These simpler pipelines can process a large number of simultaneous threads, rather than running a single thread as quickly as possible. This approach is more congruent with the profile of present-day applications, which typically need to address high simultaneous user or transac-tion counts. An added advantage of the high pipeline utilization is that an efficient processor consumes less energy and consequently runs much cooler.Figure 2. Chip multithreading combines chip multiprocessing and fine-grained hardware multithreading.Fine-grained multithreading works in tandem with chip multiprocessing to result in a multiplier effect on application performance without a corresponding need for increased frequency and resultant heat generation. Since multiple instructions can execute at every clock cycle, the improvement in throughput and execution speed can be very high.CMTChip multiprocessingn = Core per processor FG-MT Fine-grain multithreading n = Strands (hardwarethreads) per core CMT Chip multithreading n x m = Threads per processorSun Microsystems, Inc.6 Boosting telco infratructure performance with no added costChapter 3Boosting telco infrastructure performancewith no added costA good example is provided in a set of benchmarks run recently at Continuous Computing, a global provider of integrated services that helps telecommunication equipment manufacturers deploy next-generation networks. Among the company’s key offerings is the Trillium software suite, a line of more than 60 standards-based telecommunication protocols. A key product among these is the Session Initiation Protocol (SIP), which forms the backbone for voice communications.In May 2008, Continuous Computing ran the multicore Trillium SIP on a server using an eight-core UltraSPARC T2 multithreaded processor and achieved a breakthrough 6,000 calls per second, more than twice as many as any other processor that they had previously tested. Most importantly, the application effectively utilized all 64 available threads to scale performance via higher CPU utilization, versus the addition of more CPUs. This equates to a company needing less than half its previous hardware footprint to serve the same number of customers, thereby reducing infrastructure and power costs while improving density.Calls per Messages per tCp Cpu udp CpuSecond Second utilization utilization(CpS) (sent plus received) (mpstat) (mpstat)500 6,000 6 61,000 12,000 11 121,500 18,000 17 182,000 24,000 23 242,500 30,000 29 303,000 36,000 35 363,500 42,000 42 424,000 48,000 49 484,500 54,000 56 555,000 60,000 63 625,500 66,000 70 696,000 72,000 78 76Figure 3. Continuous Computing’s benchmark of the Trillium SIP protocol on an UltraSPARC T2 processor-based Sun Netra™ T5220 server showed near-linear scalability as more threads were used, and processor utilization increased.1When an application is run as multiple threads as in the case of the Trillium SIP protocol discussed above, the effect is to scale almost linearly because of progres-sively higher utilization of the processor through more threads. Better performance is achieved through greater utilization efficiency of a single processor, as opposedto the cost and complexity of adding multiple processors.1. Source: /papers/multicoresip/.7 Virtualization at the chip levelSun Microsystems, Inc.Chapter 4Virtualization at the chip levelThe model underlying the UltraSPARC T1 and T2 processor architectures is that of fine-grained interleaved threading, where a new thread (or process) is launched on each clock cycle. Where previously there was only one running thread monopolizing the processor, now multiple threads can share its apparatus and features. The effect of multiple threads is thus to virtualize the processor, where the processor essential-ly can be considered as a group of individual, bootable machines, each with memory and I/O carved out.Economy by simplificationA positive secondary outcome is that what was formerly a deep process pipeline that had to do branch prediction in hardware to be efficient is now replaced by very short pipelines where the effect of a branch miss is resolved in two clock ticks. The savings on prediction-oriented hardware enable the use of fewer transistors and storage, and thus less power consumption.In current network devices, there might be separate chipsets designated for the control unit, for routing, and for media. This requires the knowledge of three differ-ent instruction sets — that of a microprocessor, a specialized network processor, and a digital signal processing chip — each made by a different vendor. Chip multi-threading enables individual threads in the same processor to be devoted to each of these functions, so the knowledge requirement for engineers can be reduced to one chip architecture.Flexibility through threadingThe ability to devote specific threads to certain functions makes the processor very flexible. For instance, one could designate two threads to processing, two to the network interface, and the rest to important features such as firewall and encryption. CMT especially shines in improving the implementation of some of these latter security functions.Chapter 5Near-linear crypto accelerationIn this age of wireless and mobile computing, encryption of packets across networks is becoming increasingly important. It is critical for privacy of VPNs, secure VoIP, and cellular 3G networks. Encryption also is fundamental for the protection of intellec-tual property in media gateways, and for securing file systems and databases. The traditional challenge is that it adds a lot of computational overhead, and results in a throttling of packet throughput. An example of an important encryption tool for 3G mobile telephony is the KASUMI algorithm.2Current software implementations of this algorithm on traditional processors use multiple lookup tables sized to all fit in their small Level 1 caches. This use of multiple small tables requires a significant number of arithmetic operations in order to access the various tables, manipulate the data, and recombine the results from them.For an optimized CMT implementation, one can combine many small lookup tables into a few large ones that can instead reside in Level 2 cache. Lookup tables are constant and can be precomputed. The net effect is that the number of instructions to access the data from the lookup table can be greatly reduced. Normally the trade-off is that this would result in a greater number of memory stalls; but this plays to the strength of CMT, because a memory stall simply results in the firing off of a new thread. It consumes much less of a processor core’s resources while it is stalled.As a result, as the number of threads is increased, performance scales almost lin-early. For the UltraSPARC T2 processor, per-core KASUMI performance is around eight times the performance of a single thread, and per-chip KASUMI performance is close to 64 times a single-strand performance.Master and helper threads — microparallelismAnother optimization technique that is well suited to CMT processors is microparallel-ism,3 or the division of small chunks of work between multiple threads. These helper threads are assigned to helping master threads in the task of rapidly processing performance-limiting serial components. It is the key to eliminating single-threaded performance limitations.2. KASUMI is a block cipher that forms the heart of the 3GPP confidentiality algorithm f8, and the 3GPP integrityalgorithm f9.3. “Multicore Processors and Microparallelism,” by Lawrence Spracklen, 3 April 2008, /publications/presentations/multicore-expo-2008-multicore-processors-and-microparallelism.html.In a CMT processor, the inter-thread latency is very low because the threads com-municate through Level- 2 cache. The time this takes is on the order of tens of clock ticks, as opposed to the hundreds of clock ticks that is characteristic of “bare-metal” latency, when communicating across processors. Furthermore, problems such as hot lock are overcome.Microparallelism means that one can think of adding threading to operations that have traditionally been considered single-threaded, such as traversing a linked list, B-Copy, and string location. By judicious use of helper threads, applications can be greatly sped up by the use of CMT across a wide range of applications in areas such as genomics, high-performance computing, and Web searches.Sun Microsystems, Inc.4. The Aho-Corasick algorithm is a string-searching algorithm. A kind of dictionary-matching algorithm, it locates elements of a finite set of strings (the “dictionary”) within an input text.5. See: IEEE Computer, Volume 41, Number 4, pp. 42–50, April 2008.6. See “Disclosures” for details.7. The OpenSolaris™ file /source/xref/onnv/onnv-gate/usr/src/cmd/spell/list.8. /users/bmcgin/kjv12.zip.10 CMT accelerates string searching Chapter 6CMT accelerates string searchingOne of the core functions needed for text identification algorithms in data repositories is real-time string searching. A popular procedure used in this space is the Aho-Corasick algorithm.4 Recently, Sun compared the results of an Aho-Corasick string searchusing an UltraSPARC T2 processor-based system (Sun SPARC® Enterprise T5220 server) to the published results 5 of a similar search using an IBM Cell Broadband Engine (Cell/BE) DD3 Blade.6To test the performance of their processor, IBM used a 4.4 MB variant of the King James Version of the Bible using a dictionary of the 20,000 most used words in the English language (average word length of 7.59 characters). To approximate the dictionary and Bible IBM used, Sun used a dictionary of 25,144 English words 7 (average word length: 8.22 characters) and a 4.6 MB variant of the King James Version of the Bible.8The results of the test are summarized in the following table:Systemprocessor throughput number of number of Frequency(gb/sec) processors Cores (ghz)Sun SPARC EnterpriseUltraSPARC T2 24.6 1 8 1.4 T5220 serverprocessor IBM CellIBM Cell 3.8 2 16 3.2Broadband EngineBroadband Engine DD3 Blade Figure 4. In a test of string searching, the UltraSPARC T2 processor outperformed the IBM Cell Broadband Engine in throughput and efficiency.Comparing the systems, the throughput of the single-processor, UltraSPARC T2-based Sun SPARC Enterprise T5220 server was 6.5 times greater than the IBM system, which used twice as many processors and cores, running at over twice the clock speed.This also demonstrates the huge advantage that is obtained from rapid access to the large, shared Level 2 cache in the UltraSPARC T2 processor.11 CMT accelerates string searchingSun Microsystems, Inc.In addition to its throughput superiority, the UltraSPARC T2’s multicore/multithreaded architecture was much easier to code for than the IBM Cell Broadband Engine. IBM’s article cites numerous, elaborate optimizations that were required to achieve its results. By contrast, Sun implemented the Aho-Corasick algorithm using ANSI C and a simple compilation — no special optimizations of the algorithm were requiredto achieve the reported performance. So the UltraSPARC T2 processor not only delivered superior throughput, but did so while saving significant time and effortin software development.Fast, cost-effective virus protectionA practical application of this algorithm is in screening for computer viruses. Each virus has a certain signature — the “words” by which it can be identified. Virus recogni-tion requires deep packet inspection, that is, a detailed examination of every byte of every packet received. So a real-time method of screening for viruses is necessary. CMT offers a simple solution. One could build a dictionary starting with the particu-lar sequences of bytes that characterize a virus, and add to the dictionary all such words for all relevant viruses. The dictionary can then be searched using the text of incoming packets for the presence of these words.Eliminating the need for TCAMsTypically, virus signatures are stored in ternary content addressable memory (TCAM). This is a specialized type of memory that is designed for searching in a single lookup operation but which is very expensive to add on to a network device. By being able to scan and identify viruses in real time in software itself, a designer using the UltraSPARC T2 processor can avoid the additional cost and complexity of both the TCAM interface and the additional memory.12 ConclusionSun Microsystems, Inc.Chapter 7ConclusionAs the preceding benchmarks show, the combination of multithreaded softwarerunning on a multicore/multithreaded, CMT processor results in a huge increase inapplication performance, with no additional hardware. The ability to designate thefunctions of different threads on the fly enables tremendous flexibility and customiz-ability, as well as radical levels of consolidation. The increase in performance affordedby better processor utilization — rather than the addition of more processors — alsoreduces time to market, by simplifying design and development, and it enablessmaller form factors. CMT technology-based devices can draw less power, while atthe same time being compact and powerful enough to handle the most complex real-time networking tasks. Sun’s CMT, multicore/multithreaded processor architecture isthe best option for system designers building embedded network infrastructure.For additional information on how UltraSPARC processorscan help with application throughput and more efficient utilizationof compute resources, go to /microelectronics.DisclosuresPattern matching benchmark: Sun SPARC Enterprise T5220 server (1x 1.4 GHz UltraSPARC T2 processor,one chip, eight cores); the Solaris™ 10 Operating System (OS); Sun C 5.9, 21.7 GB/secIBM Cell Broadband Engine (Cell/BE) DD3 Blade (2x 3.2 GHz Cell Broadband Engine, two chips, 16 cores);Linux kernel v2.6.16; IBM CBE Software Development Kit v2.1, 3.8 GB/secIBM results were obtained from: Figure 7(d) of IEEE Computer, Volume 41, Number 4, pp. 42–50,April 2008. Sun benchmark results as of 8/01/2008.Sun Microsystems, Inc. 4150 Network Circle, Santa Clara, CA 95054 USA Phone 1-650-960-1300 or 1-800-555-9SUN (9786) Web © 2008 Sun Microsystems, Inc. All rights reserved. Sun, Sun Microsystems, the Sun logo, OpenSolaris, Solaris, and Sun Netra are trademarks or registered trademarks of Sun Microsystems, Inc., or its subsidiaries in the United States and other countries. All SPARC trademarks are used under license and are trademarks or registered trademarks of SPARC International, Inc. in the U.S. and other countries. Products bearing SPARC trademarks are based upon an architecture developed by Sun Microsystems, Inc. Information subject to change without notice. SunWIN #541622 Lit. #SYWP14470-0 8/08。

相关文档
最新文档