33 research outputs found

    Aprendizaje multiclase de videoimágenes deportivas con arquitecturas profundas

    Get PDF
    Las arquitecturas profundas permiten representar de manera compacta funciones altamente no lineales. Entre ellas, las redes convolucionales han adquirido gran protagonismo en la clasificación de imágenes debido a la invarianza traslacional de sus features. Este trabajo propone investigar un abordaje naïve para la clasificación de videoimágenes con redes profundas, comparar la performance de redes pre-entrenadas con la de redes ad-hoc y finalmente crear un mecanismo de visualización de la representación interna de la arquitectura. Como ejemplo de aplicación se utilizarán segmentos de videos deportivos con diferentes acciones grupales.Sociedad Argentina de Informática e Investigación Operativa (SADIO

    Aprendizaje multiclase de videoimágenes deportivas con arquitecturas profundas

    Get PDF
    Las arquitecturas profundas permiten representar de manera compacta funciones altamente no lineales. Entre ellas, las redes convolucionales han adquirido gran protagonismo en la clasificación de imágenes debido a la invarianza traslacional de sus features. Este trabajo propone investigar un abordaje naïve para la clasificación de videoimágenes con redes profundas, comparar la performance de redes pre-entrenadas con la de redes ad-hoc y finalmente crear un mecanismo de visualización de la representación interna de la arquitectura. Como ejemplo de aplicación se utilizarán segmentos de videos deportivos con diferentes acciones grupales.Sociedad Argentina de Informática e Investigación Operativa (SADIO

    Sketch-based Randomized Algorithms for Dynamic Graph Regression

    Full text link
    A well-known problem in data science and machine learning is {\em linear regression}, which is recently extended to dynamic graphs. Existing exact algorithms for updating the solution of dynamic graph regression problem require at least a linear time (in terms of nn: the size of the graph). However, this time complexity might be intractable in practice. In the current paper, we utilize {\em subsampled randomized Hadamard transform} and \textsf{CountSketch} to propose the first randomized algorithms. Suppose that we are given an n×mn\times m matrix embedding MM of the graph, where mnm \ll n. Let rr be the number of samples required for a guaranteed approximation error, which is a sublinear function of nn. Our first algorithm reduces time complexity of pre-processing to O(n(m+1)+2n(m+1)log2(r+1)+rm2)O(n(m + 1) + 2n(m + 1) \log_2(r + 1) + rm^2). Then after an edge insertion or an edge deletion, it updates the approximate solution in O(rm)O(rm) time. Our second algorithm reduces time complexity of pre-processing to O(nnz(M)+m3ϵ2log7(m/ϵ))O \left( nnz(M) + m^3 \epsilon^{-2} \log^7(m/\epsilon) \right), where nnz(M)nnz(M) is the number of nonzero elements of MM. Then after an edge insertion or an edge deletion or a node insertion or a node deletion, it updates the approximate solution in O(qm)O(qm) time, with q=O(m2ϵ2log6(m/ϵ))q=O\left(\frac{m^2}{\epsilon^2} \log^6(m/\epsilon) \right). Finally, we show that under some assumptions, if lnn<ϵ1\ln n < \epsilon^{-1} our first algorithm outperforms our second algorithm and if lnnϵ1\ln n \geq \epsilon^{-1} our second algorithm outperforms our first algorithm
    corecore