bertanimauro / Ranganathan_APUPA

subject heading and facet classification. Graph and tassonomy. Propositional calculus and boundary logic. Conceptual graph and PRECIS
Other
0 stars 0 forks source link

studiare eigenvalues #3

Open bertanimauro opened 2 years ago

bertanimauro commented 2 years ago

From APUPA created by bertanimauro: bertanimauro/APUPA#4

e varietà dei polinomi. Scopo è trasformare frasi in polinomi e poi fare calcoli sui polinomi. Base studio qui: https://docs.google.com/document/d/1JxKFb86Vg8iOV9zvaovDDyJDlMnRgrXWuumCCiDBLQA/edit?usp=sharing

bertanimauro commented 2 years ago

https://en.wikipedia.org/wiki/Cayley%E2%80%93Hamilton_theorem

bertanimauro commented 2 years ago

Se un concetto atomico è un punto nello spazio, un concetto complesso (formato da 3atomi) crea un piano. E anch'esso tramite un manifold può essere mandato ad un punto della retta monodimensionale

bertanimauro commented 2 years ago

https://en.m.wikipedia.org/wiki/Submersion_(mathematics)

Landa * I = [ x 0 0] [0 y 0] [0 0 z]

Det[ A -landa*I]

Ottengo equazione in x y z. Sostituendo tutte le combinazioni di x ,y ,z ottengo un manifold R^3 -> R. Ho mandato un piano sulla retta

bertanimauro commented 2 years ago

Trovata connessione con Hardy

bertanimauro commented 2 years ago

Whitehead “We do not know for sure whether they discussed the views of the latter on mapping of multidimensional spaces and classification as well. Whitehead linkes in his Adventures of Ideas (1933) “non-metrical projective geometry” to what he called “the science of cross-classification.” (Whitehead 1967, 137-38)

Leggere da pag 262 di “Le matematiche” di Aleksandrov, Kolmogorov, Lavrent. Bollati Boringhieri, 2012 [da paragrafo 9 a paragrafo 14 del capitolo 3 - Geometria analitica-]

Teorema Hamilton ti permette di trovare l'equazione caratteristica quadrata di una matrice A

I coefficienti delle equazioni ridotte di circonferenze si esprimono per mezzo di invarianti e semi-invarianti e attraverso le radici della equazione caratteristica quadrata. <<Pag 297-301>> Attraverso le invarianti si può stabilire a quale classe affine appartiene la curva di secondo ordine espressa dalla equazione: Ax^2+Bxy+Cy^2+Dx+Ey+F=0 Ellisse, iperbole e parabola appartengono alla stessa classe affine. Se si considerano le proiezioni prospettive come applicazioni proiettive dei piani proiettivi pi e pi^* l'uno nell'altro, e si fanno coincidere tali punti, si ricava che tutte le ellissi, le iperboli e le parabole sono immagini di trasformazioni proiettive della circonferenza <<pag. 310>>

Le equazioni rappresentano figure nello spazio. Relazioni tra n variabili creano spazi vettoriali R^n. Le trasformazioni lineari o affini creano una contrazione della figura e gli eigenvector sono delle invarianti a tale contrazioni. Le trasformazioni ortogonali sono delle rotazioni o simmetrie della figura. Attraverso la rotazione di rette e piani si ottengono le 17 forme canoniche (ellissoide,iperboloide,cono...) dall'equazione di secondo grado in 3 variabili: A_1x^2+A_2y^2+A_3z^2+2B_1yz+2B_2xz+B_3xy+2C_1x+2C_2y+2C_3y+D=0

Per intenderci: una trasformazione lineare di traslazione di un vettore v = {210,000,060} per il vettore q={1,0,0} otteniene il vettore m={211,000,060}. Se si guarda /traccia1/articolo/raganathan2 si vedrà che il vettore v rappresenta la stringa di soggetto "Matematica nel 1500", mentre il vettore m rappresenta "Algebra nel 1500". Quindi una trasformazione di traslazione è un movimento nell'albero della classificazione. Per il momento non ho trovato relazioni tra classificazione come spazio vettoriale e trasformazioni di scale e rotazioni o simmetrie, però ho questo spunto: la projective geometry manda R^n a R^2 il mio manifold mandada R^n a R^1: Nel capitolo twofold infinity spiego due prospettive che non si incontrano ma creata una funzione che va da una prospettiva ad un'altra abbiamo una interpretazione. Lo stesso se mandiamo uno spazio a tre dimensioni su un piano (projective geometry). Nel nostro caso lo mandiamo su una retta. Nel capitolo big data si può passare da un type di stringhe di soggetto (3 round) ad un altro più complesso (5 round) mandando una retta passante per O e il punto A (3 round) all'infinito sul piano (5 round). Tenendo una retta ad infinito abbiamo una projective geometry.

Aggiunto il 22-11-2020 Round3-round5 sono dei Reeb graph

A Reeb graph[1] (named after Georges Reeb by René Thom) is a mathematical object reflecting the evolution of the level sets of a real-valued function on a manifold.[2] Given a topological space X and a continuous function f: X → R, define an equivalence relation ∼ on X where p∼q whenever p and q belong to the same connected component of a single level set f−1(c) for some real c. The Reeb graph is the quotient space X /∼ endowed with the quotient topology. https://en.m.wikipedia.org/wiki/Reeb_graph

Level set Consider the 2-dimensional Euclidean distance: d(x,y)={\sqrt {x^{2}+y^{2}}} A level set L{r}(d) of this function consists of those points that lie at a distance of r from the origin, otherwise known as a circle. For example, (3,4) \in L{5}(d) because d(3,4)=5. Geometrically, this means that the point (3,4) lies on the circle of radius 5 centered at the origin. More generally, a sphere in a metric space (M,m) with radius r centered at x \in M can be defined as the level set L_{r}(y\mapsto m(x,y)). https://en.m.wikipedia.org/wiki/Level_set

Aggiunto il 06/12/2020 Disposizione della complessità dei round come classi di equivalenza. Come teoria dei level. Man mano che ci si allontana dall'origine si creano concetti più complessi formati con più round, creando delle sfere attorno a cui si dispongono i punti. Le relazioni tra i punti di round diversi sono delle triangolazioni tra tre punti. I predicati sono sempre concetti più semplici di soggetto ed oggetto image

Aggiunto 10/01/21 Ipotizziamo il numero dewey 121. Rappresenta la posizione in un albero. Ogni ramo ha dieci posizioni. Per un totale di 1000=10^3 per tutto l'albero. Primo ramo seconda posizione. Secondo ramo terza posizione, o la dodicesimo su tutto l'albero. Terzo ramo la seconda posizione, o la centoventunesima su tutto l'albero. Allo stesso modo il vettore v ={x1,x2,x3} se ben costruito lo spazio, può rappresentare un albero. Ipotizziamo x1=1,x2=2, x3=1, avremo l'albero precedente. Lo spazio R3 rappresentato dalle stringhe di soggetto è un albero dove man mano che si va verso destra (x1,x2,x3 maggiori) si rappresentano cose sempre più complesse. Man mano che x1,x2,x3 crescono di cifre si rappresentano concetti più complessi nella classificazione. Un 3manifold o uno spazio a tre dimensioni può rappresentare un classification tree. Si parte da un albero di classificazione si costruiscono stringhe di soggette precoordinate e si ritorna ad un albero ordinato per complessità che va dall'albero precedente alle stringhe di soggetto con più round e level. Credo di aver chiuso il cerchio, chiaramente gli alberi sono grafi senza cicli :-).

Aggiunto 23/01/21 Pensare lo spazio vettoriale come una retta di reali. Quando si ottiene 1-manifold aggiungere davanti 0,.... . Ad esempio l'1-manifold è a 9 cifre trasformarlo in un reale a 9 cifre, se è a 15 cifre in un reale a 15 cifre. Come con la dewey. 100 filosofia diviene 0,1 mentre gnoseologia 120, diviene 0,12

bertanimauro commented 2 years ago

PCA The eigendecomposition of a symmetric positive semidefinite (PSD) matrix yields an orthogonal basis of eigenvectors, each of which has a nonnegative eigenvalue. The orthogonal decomposition of a PSD matrix is used in multivariate analysis, where the sample covariance matrices are PSD. This orthogonal decomposition is called principal component analysis (PCA) in statistics. PCA studies linear relations among variables. PCA is performed on the covariance matrix or the correlation matrix (in which each variable is scaled to have its sample variance equal to one). For the covariance or correlation matrix, the eigenvectors correspond to principal components and the eigenvalues to the variance explained by the principal components. Principal component analysis of the correlation matrix provides an orthogonal basis for the space of the observed data: In this basis, the largest eigenvalues correspond to the principal components that are associated with most of the covariability among a number of observed data.

Principal component analysis is used as a means of dimensionality reduction in the study of large data sets, such as those encountered in bioinformatics. In Q methodology, the eigenvalues of the correlation matrix determine the Q-methodologist's judgment of practical significance (which differs from the statistical significance of hypothesis testing; cf. criteria for determining the number of factors). More generally, principal component analysis can be used as a method of factor analysis in structural equation modeling.

Graphs In spectral graph theory, an eigenvalue of a graph is defined as an eigenvalue of the graph's adjacency matrix A, or (increasingly) of the graph's Laplacian matrix due to its discrete Laplace operator, which is either D-A (sometimes called the combinatorial Laplacian) or I-D^{-1/2}AD^{-1/2} (sometimes called the normalized Laplacian), whereD is a diagonal matrix with D{ii} equal to the degree of vertex v{i}, and in D^{-1/2}}D^{-1/2}, the ith diagonal entry is {\sqrt {\deg(v_{i})}}. The kth principal eigenvector of a graph is defined as either the eigenvector corresponding to the kth largest or kth smallest eigenvalue of the Laplacian. The first principal eigenvector of the graph is also referred to merely as the principal eigenvector.

The principal eigenvector is used to measure the centrality of its vertices. An example is Google's PageRank algorithm. The principal eigenvector of a modified adjacency matrix of the World Wide Web graph gives the page ranks as its components. This vector corresponds to the stationary distribution of the Markov chain represented by the row-normalized adjacency matrix; however, the adjacency matrix must first be modified to ensure a stationary distribution exists. The second smallest eigenvector can be used to partition the graph into clusters, via spectral clustering. Other methods are also available for clustering.

bertanimauro commented 2 years ago

La mia teoria è una implementazione del draft shacl https://w3c.github.io/shacl/shacl-af/ . Ogni tupla è un punto nello spazio R^3. Una serie di punti fanno una shape. Ma si possono costruire con i round shape complesse che tornano ad essere punti. Quindi sparql è implementato allo stesso modo del mondo senza shape

bertanimauro commented 2 years ago

https://www.w3.org/TR/shacl/

bertanimauro commented 2 years ago

In applied mathematics, topological data analysis (TDA) is an approach to the analysis of datasets using techniques from topology. Extraction of information from datasets that are high-dimensional, incomplete and noisy is generally challenging. TDA provides a general framework to analyze such data in a manner that is insensitive to the particular metric chosen and provides dimensionality reduction and robustness to noise. Beyond this, it inherits functoriality, a fundamental concept of modern mathematics, from its topological nature, which allows it to adapt to new mathematical tools.

In topological data analysis, data sets are regarded as a point cloud sampling of a manifold or algebraic variety embedded in Euclidean space. By linking nearest neighbor points in the cloud into a triangulation, a simplicial approximation of the manifold is created and its simplicial homology may be calculated. Finding techniques to robustly calculate homology using various triangulation strategies over multiple length scales is the topic of persistent homology

Screenshot_20201231_170757_com android chrome Screenshot_20201231_171318_com android chrome

Screenshot_20201231_172015_com android chrome

Concludendo

Teorie moderne di homology vengono usate per lo studio di dati. L' homology si basa sullo studio di gruppi abeliani (Z,+). Le figure nello spazio tridimensionale, algebricamente, sono gruppi o operazioni tra gruppi. Ranganathan si era specializzato in teoria dei gruppi

Ipotesi: Se una stringa di soggetto è un punto nello spazio a tre dimensioni, un testo o una serie di stringhe di soggetto sono una figura (shape). Se sono figure sono equazioni algebriche. Confrontare testi significa confrontare figure, studiare equazioni. Resta da capire cosa sono i buchi (holes). La matematica diventa difficile. Studiare Poincarre (analisys situs) e Galois

Ref: https://en.m.wikipedia.org/wiki/Homology_(mathematics) https://en.m.wikipedia.org/wiki/Finitely_generated_abelian_group https://en.m.wikipedia.org/wiki/Topological_data_analysis

bertanimauro commented 2 years ago

Recently, Peter Gärdenfors has elaborated a possible partial explanation of prototype theory in terms of multi-dimensional feature spaces called conceptual spaces, where a category is defined in terms of a conceptual distance. More central members of a category are "between" the peripheral members. He postulates that most natural categories exhibit a convexity in conceptual space, in that if x and y are elements of a category, and if z is between x and y, then z is also likely to belong to the category.[13]

In mathematics, more specifically in functional analysis, a Banach space (pronounced [ˈbanax]) is a complete normed vector space. Thus, a Banach space is a vector space with a metric that allows the computation of vector length and distance between vectors and is complete in the sense that a Cauchy sequence of vectors always converges to a well defined limit that is within the space.

Banach spaces are named after the Polish mathematician Stefan Banach, who introduced this concept and studied it systematically in 1920–1922 along with Hans Hahn and Eduard Helly.[1]Maurice René Fréchet was the first to use the term "Banach space" and Banach in turn then coined the term "Fréchet space."[2] Banach spaces originally grew out of the study of function spaces by Hilbert, Fréchet, and Riesz earlier in the century. Banach spaces play a central role in functional analysis. In other areas of analysis, the spaces under study are often Banach spaces.

In mathematics, the Lp spaces are function spaces defined using a natural generalization of the p-norm for finite-dimensional vector spaces. They are sometimes called Lebesgue spaces, named after Henri Lebesgue (Dunford & Schwartz 1958, III.3), although according to the Bourbaki group (Bourbaki 1987) they were first introduced by Frigyes Riesz (Riesz 1910). Lp spaces form an important class of Banach spaces in functional analysis, and of topological vector spaces. Because of their key role in the mathematical analysis of measure and probability spaces, Lebesgue spaces are used also in the theoretical discussion of problems in physics, statistics, finance, engineering, and other disciplines.

For 1 ≤ p ≤ ∞, Lp(S, μ) is a Banach space. The fact that Lp is complete is often referred to as the Riesz-Fischer theorem, and can be proven using the convergence theorems for Lebesgue integrals.

In complex analysis, the Hardy spaces (or Hardy classes) Hp are certain spaces of holomorphic functions on the unit disk or upper half plane. They were introduced by Frigyes Riesz (Riesz 1923), who named them after G. H. Hardy, because of the paper (Hardy 1915). In real analysis Hardy spaces are certain spaces of distributions on the real line, which are (in the sense of distributions) boundary values of the holomorphic functions of the complex Hardy spaces, and are related to the Lp spaces of functional analysis. For 1 ≤ p ≤ ∞ these real Hardy spaces Hp are certain subsets of Lp, while for p < 1 the Lp spaces have some undesirable properties, and the Hardy spaces are much better behaved.

Gärdenfors, Peter (2014). The Geometry of Meaning: Semantics Based on Conceptual Spaces. MIT Press.

Bugajski, Sławomir (1983). Semantics in Banach spaces. Studia Logica 42 (1):81 - 88.

Dessalles, Jean-Louis (2015). From Conceptual Spaces to Predicates. In Peter Gärdenfors & Frank Zenker (eds.), Applications of Conceptual Spaces. Springer Verlag.

Douven, Igor ; Decock, Lieven ; Dietz, Richard & Égré, Paul (2013). Vagueness: A Conceptual Spaces Approach. Journal of Philosophical Logic 42 (1):137-160.