会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 1. 发明申请
    • SYSTEM FOR MANAGING USER EXPERIENCE TEST IN CONTROLLED TEST ENVIRONMENT AND METHOD THEREOF
    • 用于管理受控测试环境中的用户体验测试的系统及其方法
    • WO2017142393A1
    • 2017-08-24
    • PCT/MY2016/050085
    • 2016-11-30
    • MIMOS BERHAD
    • LOO, Fook AnnSOO, Shi TzuaanMOHAMED SUFFIAN, Muhammad DhiauddinSIVAJI, Ashok
    • G06F11/22G06F11/07
    • G06F11/3438G06F11/3414G06F11/3476G06F17/40
    • The present invention relates to an improved system and method for managing a user experience test (UET) for a system under test (SUT) in a controlled test environment. The system comprises a test controller (100), a user interface agent (101), an adaptive load generator agent (102), an adaptive network emulator agent (103), an analyzer and issue management module (104), a software release post-commit trigger module (105), a test setup agent (106), a test report and test log module (107), a test plan management module (108) and a functional test execution agent (109). The method comprises providing a test plan for the SUT to users via network connections (200); establishing a user traffic flow by simulating system load (201); establishing one or more emulated network connections by modifying at least three connection parameters (202); providing performance analysis thereby computing a feedback score (203); comparing the feedback score against a score threshold to trigger execution of another UET, a functional test and a performance test for reporting root cause analysis (204); and monitoring a software thereby triggering download and execution of the same (205).
    • 本发明涉及一种用于在受控测试环境中管理被测系统(SUT)的用户体验测试(UET)的改进系统和方法。 该系统包括测试控制器(100),用户界面代理(101),自适应负载生成器代理(102),自适应网络仿真器代理(103),分析器和问题管理模块(104),软件发布帖子 (105),测试设置代理(106),测试报告和测试日志模块(107),测试计划管理模块(108)和功能测试执行代理(109)。 该方法包括通过网络连接(200)向用户提供SUT的测试计划; 通过模拟系统负载建立用户业务流(201); 通过修改至少三个连接参数来建立一个或多个模拟网络连接(202); 提供性能分析,从而计算反馈分数(203); 将所述反馈得分与得分阈值进行比较以触发执行另一个UET,功能测试和用于报告根本原因分析的性能测试(204); 并监控软件,从而触发其下载和执行(205)。
    • 2. 发明申请
    • PERFORMANCE MONITORING IN A DISTRIBUTED STORAGE SYSTEM
    • 分布式存储系统中的性能监测
    • WO2017083022A1
    • 2017-05-18
    • PCT/US2016/053933
    • 2016-09-27
    • GOOGLE INC.
    • BORISOV, VadimFIKES, AndrewCOOPER, Brian F.
    • G06F9/50G06F3/06G06F11/34G06F11/30
    • H04L43/12G06F9/5011G06F11/3034G06F11/3409G06F11/3414G06F11/3485H04L41/5009H04L43/0852H04L67/1097
    • Methods and systems for monitoring performance in a distributed storage system described. One example method includes identifying requests sent by clients to the distributed storage system, each request including request parameter values for request parameters; generating probe requests based on the identified requests, the probe requests including probe request parameter values for probe request parameter values, representing a statistical sample of the request parameters included in the identified requests; sending the generated probe requests to the distributed storage system over a network, wherein the distributed storage system is configured to perform preparations for servicing each probe request in response to receiving the probe request; receiving responses to the probe requests from the distributed storage system; and outputting at least one performance metric value measuring a current performance state of the distributed storage system based on the received responses.
    • 描述了用于监视分布式存储系统中的性能的方法和系统。 一个示例方法包括识别由客户端发送到分布式存储系统的请求,每个请求包括请求参数的请求参数值; 所述探测请求包括用于探测请求参数值的探测请求参数值,表示包括在所识别的请求中的请求参数的统计样本; 通过网络将生成的探测请求发送到分布式存储系统,其中分布式存储系统被配置为响应于接收探测请求来执行用于服务每个探测请求的准备; 接收对来自分布式存储系统的探测请求的响应; 以及基于接收到的响应输出测量分布式存储系统的当前性能状态的至少一个性能度量值。
    • 3. 发明申请
    • AUDIO BENCHMARKING WITH SIMULATED REAL TIME PROCESSING OF AUDIO
    • 音频基准模拟实时处理音频
    • WO2016100683A2
    • 2016-06-23
    • PCT/US2015/066408
    • 2015-12-17
    • DOLBY LABORATORIES LICENSING CORPORATION
    • REILLY, Andrew P.ALTMAN, MarcusBATTSON, NiallENGEL, Nicholas L.
    • G06F11/30G06F11/34G10L19/00
    • G06F11/3013G06F11/3003G06F11/3062G06F11/3409G06F11/3414G06F11/3428G06F11/3457G06F2201/805G06F2201/865G10L19/26
    • In some embodiments, a method for benchmarking an audio processing algorithm ("APA") while the APA is executed in a manner simulating expected real time execution by a deployed system. Other embodiments include a method including steps of determining a synthetic APA which corresponds to a counterpart APA (intended for real use by a first deployed system), and benchmarking the synthetic APA while it is executed in a manner simulating expected real time execution of the synthetic APA by a contemplated deployed system. Other aspects include a system or device configured to implement any embodiment of the inventive method, or including a memory which stores data indicative of at least one synthetic APA determined in accordance with, or a benchmark generated by, an embodiment of the inventive method or steps thereof, and a computer readable medium which stores code for implementing any embodiment of the inventive method or steps thereof.
    • 在一些实施例中,提供了一种用于在模拟由部署系统预期的实时执行的方式执行APA的同时对音频处理算法(“APA”)进行基准测试的方法。 其他实施例包括一种方法,该方法包括以下步骤:确定对应于对应APA(旨在由第一部署系统实际使用)的合成APA;以及基于模拟合成APA的预期实时执行的方式对合成APA进行基准测试 通过预期的部署系统进行APA。 其他方面包括被配置为实现本发明方法的任何实施例的系统或设备,或者包括存储器,该存储器存储指示根据本发明的方法或多个步骤的实施例所生成的基准确定的至少一个合成APA的数据 以及存储用于实现本发明方法的任何实施例或其步骤的代码的计算机可读介质。
    • 8. 发明申请
    • INJECTED ANALYTICS SERVICE FOR WEB DISTRIBUTED INTERFACES
    • WEB分布式接口注入分析服务
    • WO2015009322A1
    • 2015-01-22
    • PCT/US2013/051339
    • 2013-07-19
    • EMPIRE TECHNOLOGY DEVELOPMENT, LLC
    • KRUGLICK, Ezekiel
    • G06F15/16
    • H04L67/10G06F11/3414H04L67/025H04L67/2823H04L67/2842H04L67/34
    • Technologies are generally described for integrating an injected analytics service into a user interface (UI) content distribution system to generate per-user and per-control level analytics for web distributed interfaces. In some examples, an analytics engine of the UI content distribution system may generate differentiated analytics payload elements for each control destination at the point of UI content distribution. The analytics engine may then inject the analytics payload elements into UI content payloads delivered to each destination. The differentiated analytics payload elements may create distinct analytics output for data processing and analysis at a distributed user interface (DUI) analytics database, even when multiple devices or users are part of a same application session or login.
    • 通常将技术描述为将注入的分析服务集成到用户界面(UI)内容分发系统中,以生成针对Web分布式接口的每用户和每个控制级分析。 在一些示例中,UI内容分发系统的分析引擎可以在UI内容分发的点处为每个控制目的地生成差异化的分析有效载荷元素。 然后,分析引擎将分析有效负载元素注入到递送到每个目的地的UI内容有效载荷中。 即使在多个设备或用户是相同的应用程序会话或登录的一部分时,差异化分析有效负载元素也可以在分布式用户界面(DUI)分析数据库中为数据处理和分析创建不同的分析输出。
    • 10. 发明申请
    • 非機能評価支援装置、システム、方法およびプログラム
    • 非功能评估辅助设备,系统,方法和程序
    • WO2014208005A1
    • 2014-12-31
    • PCT/JP2014/002886
    • 2014-05-30
    • 日本電気株式会社
    • 榊 啓
    • G06F11/36G06F11/28G06F11/34
    • G06F11/3447G06F11/3414H04L41/145
    •  評価対象のシステムを表すシステムモデルを選択して取り出すシステムモデル選択手段21と、評価対象のシステムに対応する事例スクリプトを選択して取り出す事例スクリプト選択手段22と、業務パラメータ入力項目を生成する業務パラメータ入力項目生成手段23と、業務パラメータの入力を受け付ける業務パラメータ入力手段24と、入力された業務パラメータと事例スクリプトとに基づいて非機能評価用パラメータを算出する非機能評価用パラメータ算出手段25と、算出された非機能評価用パラメータとシステムモデルとに基づいて、ユーザの要求に応じて定められる評価対象のシステムの非機能要件を評価するための結果である非機能評価計算結果を出力する非機能評価計算手段26とを備える。
    • 提供了一种非功能评估辅助装置,包括:用于选择和提取表示要评估的系统的系统模型的系统模型选择装置(21) 用于选择和提取与要评估的系统相对应的病史历史脚本的案例历史脚本选择装置(22) 任务参数输入项产生装置,用于生成任务参数输入项; 用于接受任务参数的输入的任务参数输入装置(24); 用于基于输入的任务参数和案例历史脚本计算非功能评估参数的非功能评估参数计算装置(25); 以及非功能评价计算单元,用于输出作为用于评价根据用户请求确定的被评价系统的非功能性需求的结果的非功能评价计算结果,基于 计算的非功能评估参数和系统模型。