会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 2. 发明专利
    • Method and apparatus for detecting lane lines, electronic device and storage medium
    • AU2022201649A1
    • 2022-10-20
    • AU2022201649
    • 2022-03-09
    • BEIJING TUSEN ZHITU TECHNOLOGY CO LTD
    • SHEN ZHENWEIHUANG ZEHAOWANG NAIYAN
    • G06V20/56B60W30/12G05D1/02G06V10/26
    • The present application relates to a method and an apparatus for detecting lane lines, an electronic device and a non-transitory storage medium. The method comprises: acquiring an image to be detected; determining at least one initial point in the image; extracting a position 5 characteristic of at least one initial point; processing the position characteristic of the at least one initial point by using a first network model to obtain trend information of a corresponding lane line; and generating a target lane line containing the at least one initial point according to the trend information. In the present application, a network model is used to process a position characteristic of an initial point to obtain trend information of the lane line, and a 10 complete lane line of the road image is quickly generated according to the trend information. Acquiring an image to be detected Determining at least one initial point in the image Extracting a position characteristic of the at least one initial point S103 Processing the position characteristic of the at least one initial point by a first network model to obtain trend information of a corresponding lane line and S04 generating a target lane line containing the at least one initial point according to the trend information 5 Line Segment 2 First direction -; L 7 ,1Line - segment 3 Line segment 1 Second Line 13 direction segment 4
    • 3. 发明专利
    • Kollisionsvorhersagevorrichtung
    • DE112012006790B4
    • 2022-09-29
    • DE112012006790
    • 2012-08-08
    • TOYOTA MOTOR CO LTD
    • NANAMI TAKESHI
    • B60W30/095B60R21/01B60W10/04B60W10/18B60W40/04B60W50/14G01S13/931G06F17/17G06F17/18G06V10/26G06V20/58G08G1/16
    • Kollisionsvorhersagevorrichtung, mit:einem Sensor (20; 30; 40), der Positionsinformationen bezieht, die eine Position eines Zielobjekts bezüglich eines Ausgangsfahrzeugs repräsentieren; undeinem Prozessor (10), dadurch gekennzeichnet, dassder Prozessor (10) eine Bewegungstrajektorie des Zielobjekts bezüglich des Ausgangsfahrzeugs basierend auf den zu einer Vielzahl von Zeitpunkten durch den Sensor (20; 30; 40) bezogenen Positionsinformationen berechnet, wobei die Bewegungstrajektorie unter Verwendung einer linearen Annäherung berechnet wird, die Ausreißer ausschließt, wobei die Ausreißer Positionsinformationen außerhalb eines vorbestimmten Fehlerbereichs sind,der Prozessor (10) eine Wahrscheinlichkeit einer Kollision zwischen dem Zielobjekt und dem Ausgangsfahrzeug basierend auf der berechneten Bewegungstrajektorie und zumindest einem von drei Parametern vorhersagt, wobei die drei Parameter eine Anzahl von Bezugszeitpunkten der zum Berechnen der Bewegungstrajektorie verwendeten Positionsinformationen, eine Änderung von einer Seitenbreite des Zielobjekts zwischen den Zeitpunkten, und eine Änderung von den Positionsinformationen des Zielobjekts bezüglich des Ausgangsfahrzeugs in einer Längsrichtung des Ausgangsfahrzeugs umfassen,der zumindest eine von drei Parametern die Anzahl von Bezugszeitpunkten umfasst, so dass die vorhergesagte Wahrscheinlichkeit einer Kollision niedriger wird, wenn die Anzahl der Bezugszeitpunkte kleiner wird,der zumindest eine von drei Parametern die Änderung von der Seitenbreite des Zielobjekts zwischen den Zeitpunkten umfasst, so dass die vorhergesagte Wahrscheinlichkeit einer Kollision niedriger wird, wenn die Änderung von der Seitenbreite zwischen den Zeitpunkten größer wird, undder Prozessor (10) eine Anweisung zur Steuerung einer Steuerungszieleinrichtung basierend auf der vorhergesagten Wahrscheinlichkeit einer Kollision ausgibt.
    • 4. 发明专利
    • Ein System zur Identifizierung des Verbrennungsbereichs durch Segmentierung der verbrannten Bilder für die Haut
    • DE202022101612U1
    • 2022-05-04
    • DE202022101612
    • 2022-03-28
    • CHANNAPPA SOMASHEKHAR GANIGEREMURTHY KESHAVAPHANIRAJU HOLAVANAHALLI BASAVARAJUSHIRABADAGI SHIVARANJANI SOMANATH
    • G06V10/26G06V20/60
    • System zur Identifizierung des Verbrennungsbereichs durch Durchführung einer Segmentierung der verbrannten Bilder für die Haut, wobei das System umfasst:eine Sammelverarbeitungseinheit zum Sammeln der Echtzeitbilder von den Krankenhäusern mit Verbrennungszentren, wobei die gesammelten Bilder als Eingangsbilder für die Segmentierung verwendet werden, wobei die Bilder unter Verwendung der Mobiltelefonkamera und der Digitalkamera erfasst werden;eine Umwandlungsverarbeitungseinheit zum Umwandeln von Farbbildern aus dem RGB-Bereich in (L*, a*, b*)YCbCr - und HSV-Farbräume, wobei a* und b* der L*, a*, b*, H und S von HSV, Cb und Cr von YCbCr entsprechend verwendet werden;eine Cluster-Verarbeitungseinheit zum Bilden der Cluster mit Hintergrund, Verbrennung, Haut, wobei k-means-Clustering, einfaches lineares iteratives Clustering (SLIC) und Erwartungsmaximierungs- (EM) Clustering-Verfahren zum Ausführen des Segmentierungsprozesses verwendet werden, und wobei eine optimale Anzahl von Clustern für jedes Bild verwendet wird und der Schwellenwert des Clusterbereichs 50 Pixel umfasst;eine Segmentierungsverarbeitungseinheit zum Durchführen der Segmentierung der Bilder auf der Grundlage des superweisen Pixelalgorithmus durch Messen mit der CIE (L*, a*, b*) -Farbkoordination auf der Grundlage des euklidischen Abstands und ihrer Räume unter Verwendung eines histogrammbasierten Ansatzes, bei dem die Räume gleich gut und gleichförmig sind und eine geeignete Schätzung des Abstands zwischen den Farbvektoren liefern, wobei die Farbe durch die Leuchtdichte beeinflusst wird,eine Klassifizierungsverarbeitungseinheit zur Unterscheidung von normaler Haut, verbrannter Haut und verheilten Hautregionen; dies geschieht durch den Einsatz von Klassifizierern auf der Grundlage von Faltungslernen, die trainiert werden, und die erhaltenen Ergebnisse werden in die Testfälle eingespeist, wobei ein auf Sättigung basierender Ansatz in Betracht gezogen wird und die Hautregion mit grüner Farbe und die verbrannte Region mit roter Farbe hervorgehoben wird; undeine Kalibrierungs-Verarbeitungseinheit zur Durchführung der Kalibrierung auf der Grundlage von entweder RGB- oder CIE-basierten Ansätzen, wobei zur Kalibrierung das RGB-Bild auf der Grundlage einer definierten spezifischen Beleuchtung in einen XYZ-Bereich in seinem Farbraum transformiert wird.
    • 8. 发明专利
    • Text refinement network
    • GB2600806A
    • 2022-05-11
    • GB202112553
    • 2021-09-03
    • ADOBE INC
    • ZHIFEI ZHANGXINGQIAN XUZHAOWEN WANGBRIAN PRICE
    • G06V30/148G06V10/26G06V30/19
    • After receiving an image 500 foreground text 550 is segmented from a background portion by classifying each pixel as text or background. A segmentation prediction 520 is produced using an additional convolutional layer. A key vector representing features such as texture of the text may be generated by applying a cosine similarity, bias, and softmax to the prediction. A neural network refines the prediction using the key vector. The image may be encoded using a ResNet architecture to produce a feature map 510 and decoded 515 to produce the segmentation prediction. Decoding may comprise applying a convolutional layer to the feature map, a first bias to an output of the layer, and a softmax to the output of the first bias. An attention map 530 and combined feature map 535 may be produced by combining the feature map and key vector. The key vector is generated 525 using a cosine similarity function, a second softmax, a second bias, and a pooling layer. The neural network is trained by segmenting a set of training images and updating the network based on loss functions between a ground truth, initial segmentation prediction, and refined segmentation predictions.