会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 2. 发明申请
    • STORAGE RESOURCE MANAGEMENT IN VIRTUALIZED ENVIRONMENTS
    • 虚拟化环境中的存储资源管理
    • WO2017165070A1
    • 2017-09-28
    • PCT/US2017/019357
    • 2017-02-24
    • QUALCOMM INCORPORATED
    • SHACHAM, AssafYAHALOM, TomTEB, David
    • G06F3/06
    • G06F9/45558G06F3/0605G06F3/0613G06F3/062G06F3/0635G06F3/0644G06F3/0659G06F3/0664G06F3/067G06F3/0679G06F2009/45583G06F2009/45595
    • Storage resource management in virtualized environments is provided. In this regard, when receiving a request for accessing a target general purpose partition (GPP) in a storage device, partition switching circuitry is configured to determine whether the target GPP equals a current GPP that is accessed by a list of existing requests. The partition switching circuitry adds the request into the list of existing requests if the target GPP equals the current GPP. Otherwise, the partition switching circuitry waits for the list of existing requests to be executed on the current GPP before switching to the target GPP to execute the request received from a client. By switching to the target GPP after executing the list of existing commands on the current GPP, it is possible to share a plurality of GPPs among multiple clients in a virtualized environment while maintaining data integrity and security in the storage device.
    • 提供了虚拟化环境中的存储资源管理。 在这点上,当接收到访问存储设备中的目标通用分区(GPP)的请求时,分区切换电路被配置为确定目标GPP是否等于由现有请求列表访问的当前GPP。 如果目标GPP等于当前GPP,则分区切换电路将请求添加到现有请求的列表中。 否则,在切换到目标GPP以执行从客户端接收到的请求之前,分区切换电路等待在当前GPP上执行的现有请求的列表。 通过在执行当前GPP上的现有命令列表之后切换到目标GPP,可以在虚拟环境中的多个客户端之间共享多个GPP,同时保持存储设备中的数据完整性和安全性。

    • 3. 发明申请
    • MODULAR DATA OPERATIONS SYSTEM
    • 模块化数据操作系统
    • WO2017136191A1
    • 2017-08-10
    • PCT/US2017/014792
    • 2017-01-25
    • MICROSOFT TECHNOLOGY LICENSING, LLC
    • FOLTZ, Forrest Curtis
    • G06F9/50G06F12/0806
    • G06F17/30132G06F3/0613G06F3/0643G06F3/067G06F9/5016G06F12/0804G06F12/0806G06F12/0813G06F12/0877
    • In various embodiments, methods and systems, for implementing modular data operations, are provided. A data access request, associated with data, is received at a data access component. The data access component selectively implements modular data operations functionality based on configuration settings. A translation table associated with a working set is accessed, based on the configuration settings of the data access component, to determine a location for executing the data access request. The data access request is executed using the cache store or a backing store associated with the working set. The data access request is executed using the location that is determined using the translation table of the working set. The data access request is executed using the cache store when the data is cached in the cache store and the data access requested is executed based on the backing store when the data is un-cached in the cache store.
    • 在各种实施例中,提供了用于实现模块化数据操作的方法和系统。 在数据访问组件处接收与数据相关联的数据访问请求。 数据访问组件根据配置设置有选择地实现模块化数据操作功能。 基于数据访问组件的配置设置来访问与工作集相关联的翻译表以确定用于执行数据访问请求的位置。 数据访问请求使用与工作集关联的高速缓存存储或后备存储来执行。 数据访问请求使用使用工作集的转换表确定的位置来执行。 当数据在高速缓存存储中缓存时,使用高速缓存存储执行数据访问请求,当数据在高速缓存存储中未高速缓存时,基于后备存储执行所请求的数据访问。
    • 7. 发明申请
    • INFINITE MEMORY FABRIC HARDWARE IMPLEMENTATION WITH MEMORY
    • 无限内存硬件实现与内存
    • WO2016200655A1
    • 2016-12-15
    • PCT/US2016/035264
    • 2016-06-01
    • ULTRATA LLC
    • FRANK, StevenREBACK, Larry
    • G06F9/45G06F17/30H04L12/721H04L12/771H04L12/851H04L12/933
    • G06F3/0647G06F3/0613G06F3/0683G06F9/54
    • Embodiments of the invention provide systems and methods for managing processing, memory, storage, network, and cloud computing to significantly improve the efficiency and performance of processing nodes. More specifically, embodiments of the present invention are directed to a hardware-based processing node of an object memory fabric. The processing node may include a memory module storing and managing one or more memory objects, the one or more memory objects each include at least a first memory and a second memory, wherein the first memory has a lower latency than the second memory, and wherein each memory object is created natively within the memory module, and each memory object is accessed using a single memory reference instruction without Input/Output (I/O) instructions.
    • 本发明的实施例提供用于管理处理,存储器,存储,网络和云计算的系统和方法,以显着提高处理节点的效率和性能。 更具体地,本发明的实施例涉及对象存储器结构的基于硬件的处理节点。 处理节点可以包括存储和管理一个或多个存储器对象的存储器模块,所述一个或多个存储器对象每个包括至少第一存储器和第二存储器,其中第一存储器具有比第二存储器更低的延迟,并且其中 每个存储器对象在存储器模块内部本地创建,并且使用没有输入/输出(I / O)指令的单个存储器参考指令访问每个存储器对象。
    • 9. 发明申请
    • 情報処理システム、ストレージ装置及び記憶デバイス
    • 信息处理系统,存储单元和存储设备
    • WO2016194095A1
    • 2016-12-08
    • PCT/JP2015/065719
    • 2015-06-01
    • 株式会社日立製作所
    • 野村 鎮平鈴木 彬史岡田 光弘森下 賢志
    • G06F3/06
    • G06F11/1076G06F3/0613G06F3/0659G06F3/0689G06F12/0804
    • パリティの更新を伴うライト処理を高速化することを目的とする。 情報処理システムは、RAIDグループを構成し、1つのバスに接続され、相互に通信を行う複数の記憶デバイスを備える。複数の記憶デバイスのそれぞれは、デバイスコントローラと、データを格納する記憶媒体と、を有する。複数の記憶デバイスは、旧データを格納する第一記憶デバイスと、前記旧データに対応する旧パリティを格納する第二記憶デバイスと、を含む。第一記憶デバイスの第一デバイスコントローラは、旧データと、旧データを更新する新データと、に基づいて中間パリティを生成し、旧データに対応する旧パリティを格納している第二記憶デバイスを指定して、第二記憶デバイスに中間パリティを送信し、第二記憶デバイスの第二デバイスコントローラは、中間パリティと旧パリティに基づいて新パリティを生成する。
    • 本发明的目的是提高涉及奇偶更新的写入处理的速度。 根据本发明的信息处理系统设置有形成RAID组的多个存储设备,连接到单个总线并且彼此通信。 多个存储装置中的每一个具有用于存储数据的装置控制器和存储介质。 多个存储装置包括存储旧数据的第一存储装置和存储与旧数据对应的旧奇偶校验的第二存储装置。 第一存储装置的第一装置控制器基于旧数据和替换旧数据的新数据生成中间奇偶校验,指定存储与旧数据对应的旧奇偶校验的第二存储装置,并发送 与第二存储设备的中间奇偶校验。 第二存储装置的第二装置控制器基于中间奇偶校验和旧奇偶校验生成新的奇偶校验。