会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 5. 发明公开
    • LOGIKBAUSTEIN, INSBESONDERE ASIC, ZUR DURCHFÜHRUNG NEURONALER NETZWERKBERECHNUNGEN ZUM VERARBEITEN VON DATEN MITTELS EINES NEURONALEN NETZWERKS
    • EP4318317A3
    • 2024-03-06
    • EP23218112.3
    • 2020-11-05
    • EYYES GmbH
    • TRAXLER, JohannesWUNDERLICH, IlkaySCHÖNFELD, Sven
    • G06N3/0464G06N3/063
    • Computerimplementiertes Verfahren zum Verarbeiten von Daten mittels eines neuronalen Netzwerks (100), wobei das neuronale Netzwerk (100) zwischen einer Inputschicht (103) und einer Outputschicht (104) eine Vielzahl von ersten Schichten (101) aufweist, wobei bevorzugt vorgesehen ist, dass jeder ersten Schicht (101) der Vielzahl von ersten Schichten (101) Filter (105) zugeordnet sind und wobei
      - in jeder ersten Schicht (101) der Vielzahl von ersten Schichten (101) in einem oder mehreren Kanälen aus Eingangsdaten - vorzugsweise unter Verwendung von der jeweiligen ersten Schicht (101) der Vielzahl von ersten Schichten (101) zugeordneten Filtern (105) - durch lineare Rechenoperationen Ergebnisdaten erzeugt werden, wobei die Eingangsdaten eine Eingangsdatengröße pro Kanal aufweisen
      - bevorzugt vorgesehen ist, dass für jede erste Schicht (101) der Vielzahl von ersten Schichten (101) die Größen von rezeptiven Feldern der den ersten Schichten (101) zugeordneten Filter (105) kleiner sind als die Eingangsdatengröße pro Kanal jener ersten Schicht (101) der Vielzahl von ersten Schichten (101), welcher die Filter (105) jeweils zugeordnet sind und die Filter (105) die lineare Rechenoperation jeweils an unterschiedlichen Stellen der Eingangsdaten durchführen
      - in zumindest einer ersten Schicht (101) der Vielzahl von ersten Schichten (101) auf die Ergebnisdaten eine nichtlineare Aktivierungsfunktion zur Erzeugung von Ergebnisdaten in Form von Aktivierungsergebnisdaten angewandt wird, wobei
      - während eines Trainings des neuronalen Netzwerks (100) in der zumindest einen ersten Schicht (101) der Vielzahl von ersten Schichten (101), vorzugsweise in allen ersten Schichten (101) der Vielzahl von ersten Schichten (101), zur Erzeugung der Aktivierungsergebnisdaten eine nichtlineare Aktivierungsfunktion mit einem ersten Bildbereich (B 1) verwendet wird
      - während eines Inferenzbetriebs des neuronalen Netzwerks (100) in der zumindest einen ersten Schicht (101) der Vielzahl von ersten Schichten (101), vorzugsweise in allen ersten Schichten (101) der Vielzahl von ersten Schichten (101), zur Erzeugung der Aktivierungsergebnisdaten eine nichtlineare Aktivierungsfunktion mit einem zweiten Bildbereich (B2) verwendet wird, wobei der zweite Bildbereich (B2) eine echte Teilmenge des ersten Bildbereichs (B1) bildet.
    • 6. 发明公开
    • LOGIKBAUSTEIN, INSBESONDERE ASIC, ZUR DURCHFÜHRUNG NEURONALER NETZWERKBERECHNUNGEN ZUM VERARBEITEN VON DATEN MITTELS EINES NEURONALEN NETZWERKS
    • EP4318317A2
    • 2024-02-07
    • EP23218112.3
    • 2020-11-05
    • EYYES GmbH
    • TRAXLER, JohannesWUNDERLICH, IlkaySCHÖNFELD, Sven
    • G06N3/0464
    • Computerimplementiertes Verfahren zum Verarbeiten von Daten mittels eines neuronalen Netzwerks (100), wobei das neuronale Netzwerk (100) zwischen einer Inputschicht (103) und einer Outputschicht (104) eine Vielzahl von ersten Schichten (101) aufweist, wobei bevorzugt vorgesehen ist, dass jeder ersten Schicht (101) der Vielzahl von ersten Schichten (101) Filter (105) zugeordnet sind und wobei
      - in jeder ersten Schicht (101) der Vielzahl von ersten Schichten (101) in einem oder mehreren Kanälen aus Eingangsdaten - vorzugsweise unter Verwendung von der jeweiligen ersten Schicht (101) der Vielzahl von ersten Schichten (101) zugeordneten Filtern (105) - durch lineare Rechenoperationen Ergebnisdaten erzeugt werden, wobei die Eingangsdaten eine Eingangsdatengröße pro Kanal aufweisen
      - bevorzugt vorgesehen ist, dass für jede erste Schicht (101) der Vielzahl von ersten Schichten (101) die Größen von rezeptiven Feldern der den ersten Schichten (101) zugeordneten Filter (105) kleiner sind als die Eingangsdatengröße pro Kanal jener ersten Schicht (101) der Vielzahl von ersten Schichten (101), welcher die Filter (105) jeweils zugeordnet sind und die Filter (105) die lineare Rechenoperation jeweils an unterschiedlichen Stellen der Eingangsdaten durchführen
      - in zumindest einer ersten Schicht (101) der Vielzahl von ersten Schichten (101) auf die Ergebnisdaten eine nichtlineare Aktivierungsfunktion zur Erzeugung von Ergebnisdaten in Form von Aktivierungsergebnisdaten angewandt wird, wobei
      - während eines Trainings des neuronalen Netzwerks (100) in der zumindest einen ersten Schicht (101) der Vielzahl von ersten Schichten (101), vorzugsweise in allen ersten Schichten (101) der Vielzahl von ersten Schichten (101), zur Erzeugung der Aktivierungsergebnisdaten eine nichtlineare Aktivierungsfunktion mit einem ersten Bildbereich (B 1) verwendet wird
      - während eines Inferenzbetriebs des neuronalen Netzwerks (100) in der zumindest einen ersten Schicht (101) der Vielzahl von ersten Schichten (101), vorzugsweise in allen ersten Schichten (101) der Vielzahl von ersten Schichten (101), zur Erzeugung der Aktivierungsergebnisdaten eine nichtlineare Aktivierungsfunktion mit einem zweiten Bildbereich (B2) verwendet wird, wobei der zweite Bildbereich (B2) eine echte Teilmenge des ersten Bildbereichs (B1) bildet.