Regressão Inferencial de Patrício Leite

Objectivo

Introdução

Apontamento científico

Raciocínios e métodos

Resultados originados pelos raciocínios e métodos

Introdução da linearização logarítmica

Linearização logarítmica da função de Patrício Leite  

Discussão

Utilidade da fórmula de Patrício Leite

Dialética entre Stirling e Patrício Leite

Interpretação da fórmula de Patrício Leite

Exemplos de utilização da fórmula de Patrício Leite

O problema das caixas e bolas

Aplicação a sistemas científicos

Originalidade identitária de Patrício Teixeira Leite: variável z

 

Objectivo

O objectivo deste ensaio consiste na criação de um novo método de inferência estatística por modelos de regressão linear e através de uma prévia linearização logarítmica não tradicional da matemática de sistemas complexos.

 

Introdução

É com a criatividade de ideias e pensamentos que o desenvolvimento evolui e avança porém, é também, através da inovação com respectiva aplicação prática das ideias criativas, que se obtêm ganhos efectivos para um desenvolvimento harmonioso e expansivo. Este ensaio surge na sequência de trabalhos cognitivos anteriores relacionados com a distância entre os números e a densidade numérica, cuja abordagem, fundamentalmente matemático-filosófica, expandia os conceitos, ideias e pensamentos, até aos limites filosóficos da racionalidade mantendo a teoria, ainda, em ultima instância, alguma coerência do entendimento humano.

 

Apontamento científico

A dualidade semântica da linguagem conceptualiza: a regressão como um percurso sequencial ou sucessivo a estados anteriores, por outro lado a progressão surge como o respectivo inverso. Em estatística, os métodos regressivos reportam a relações, lineares ou complexas, entre variáveis dependentes e independentes. Mais especificamente, a regressão linear comporta uma linearização entre estas variáveis. No conjunto dos métodos estatísticos de regressão linear, esta diz-se simples quando modela apenas a relação entre uma variável dependente e uma independente, por outro lado, diz-se múltipla quando modela o comportamento de várias variáveis independentes; a complexidade depende da natureza multidimensional da interacção entre essas variáveis.  

 

Raciocínios e métodos

A primeira descoberta foi empírica; o método da tentativa e erro foi a base racional utilizada; o resultado foi a fórmula original de Patrício Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n. Seguidamente, esta fórmula foi sujeita a intensas e cuidadosas investigações assim como ao seu melhoramento criativo pelo uso cognitivo de pensamento lateral; foram muitas e variadas as inovações criativas, algumas já publicadas e outras, as de maior relevo matemático e científico, continuam resguardadas; a última descoberta criativa, inovadora e já publicada, com algum significado relevante, compreendeu a influência da distância entre os números que se verifica numa contagem numérica sucessiva, sequencial e ordenada. Esta distância entre os números, aqui representada pela letra d, altera a fórmula original de Patrício Leite que é, agora, traduzida pela seguinte expressão algébrica: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n.

As ideias, pensamentos e raciocínios criativos continuaram; por conseguinte, a imagem analógica criativa aponta, agora, a linearização logarítmica como método racional de transformar relações não lineares em relações lineares e interpretar cientificamente os dados e respectivas relações entre dados, inclusivamente permitindo a técnica estatística da regressão linear como método de relacionar variáveis dependentes e variáveis independentes.

 

Resultados originados pelos raciocínios e métodos

 

Introdução da linearização logarítmica

Para explicar a linearização logarítmica vamos imaginar o exemplo clássico da linearização de uma potência, assim definida:

   y = axb     aplicando logaritmos de ambos os lados vem: log(y) = log(axb)      

portanto, log y = log a + b.log x porém agora, considerando w = log y mas também z = log x vem a seguinte expressão: w = log a + bz e por conseguinte a ideia da expressão final: W = A + BZ que se trata de uma função afim com W como variável dependente e Z como variável independente e cujo estudo é sobejamente conhecido desde os cursos elementares de matemática.

 

Linearização logarítmica da função de Patrício Leite 

Se considerarmos a fórmula original de Patrício Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n torna-se elementar que a multiplicação de ambos os lados da igualdade pelo mesmo número não altera a igualdade final da equação, por conseguinte, multiplicando ambos os lados por dn vem: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n que é precisamente a fórmula já anteriormente descrita para estudar, em termos estritos da matemática numérica, a distância entre os números; sendo d, obviamente, a distância entre os números.

Se agora procedermos à linearização logarítmica desta fórmula vem:

   log (n!dn) = log (Σnk=0(nk)(-1)kdn(n+z-k)n) que pode ser traduzida pela seguinte função: log y = log (n!dn) = log (Σnk=0(nk)(-1)kdn(n+z-k)n) portanto:

   log y = log (n!dn) ou seja log y = log (n!) + log (dn) continuando

   log y = log n! + n log d

Sabemos que existem alguns modos diferentes de resolver logaritmos de factoriais, por exemplo, para valores elevados de n pode-se aplicar a aproximação de Stirling; mas sabemos com nítida certeza que log n! é sempre uma constante aqui designada por c; assim c = log n!, porém sabemos também que podemos proceder a mudanças de variável com w = log y e com z = log d então, finalmente, a expressão log y = log n! + n log d assume a expressão final:  w = c + nz  que traduz a função afim cujo gráfico é representado no plano cartesiano por uma recta cujo valor da constante c corresponde precisamente ao valor que a ordenada w, ou variável dependente, assume quando o valor da abcissa z, ou variável independente, for igual a zero e cujo valor de n corresponde ao declive ou inclinação dessa recta. As relações lineares, cujas ordenadas ou variáveis dependentes são modeladas em função das abcissas ou variáveis independentes, representadas pela função afim, permitem o método ou técnica da regressão linear simples como um instrumento fundamental da inferência estatística.

 

Discussão

Considerando que a regressão linear por logaritmização é uma técnica muito conhecida e frequentemente usada quando existem relações do tipo potencia ou crescimentos exponenciais e com aplicações como modelos estatísticos em situações cujos dados estão muito dispersos e se procura reduzir a influencia de outliers assim como a estabilização de variâncias, permitindo interpretações em termos de variações percentuais como acontece, por exemplo, em situações biológicas e médicas com doenças e epidemias que têm um rápido crescimento inicial e depois tendem a estabilizar; esta técnica não vai, portanto, ser discutida de modo abrangente. Por outro lado, a novidade estimula a criatividade! É neste contexto efectivo que surge a função ou relação de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n modelando situações de elevada complexidade pelo que, agora, explico alguns dos seus detalhes.

 

Utilidade da fórmula de Patrício Leite

A fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n permite, estatisticamente, modelar complexos sistemas combinatórios, onde emergem padrões de repetição e múltiplas recorrências de causalidade circular que, através da logaritmação  e respectiva simplificação linear para rácios, razões e proporções, fundamenta a aplicação inferencial do método estatístico da regressão linear com base em variáveis dependentes e independentes que configuram simples relações de causa a efeito.

 

Dialética entre Stirling e Patrício Leite

Considerando a antítese dialética da evolução histórica do pensamento matemático, pode-se pensar que a fórmula de Patrício Leite tem alguma aproximação, por semelhança grosseira, com a fórmula explícita dos números de Stirling de segunda espécie; no entanto elas são substancialmente diferentes, tanto nos aspectos estruturais como funcionais; efectivamente, conforme já foi explicado numa publicação anterior, pois, uma visão atenta permite verificar que a estrutura e as variáveis são matematicamente muito diferentes: os números de Stirling de segundo tipo vão particionar um conjunto em subconjuntos não vazios de tal modo que o produto das permutações pelos números de Stirling do segundo tipo dá as sobrejecções, significando isto que nas sobrejecções a ordem (expressa nas permutações) interessa e nos números de Stirling essa ordem não interessa; por outro lado, na fórmula de Patrício Leite os números de Stirling nem sequer entram, ou então, por defeito, terá de se considerar sempre o número um, pelo que, na fórmula de Patrício Leite, resta apenas a pura ordem, ou seja, resta o método puro de ordenar e distribuir os subconjuntos: como que a atribuição de uma identidade ou distinção a cada um desses subconjuntos; esta distinção é radicalmente fundamental para diferenciar e distinguir as fórmulas de Stirling e de Patrício Leite. Repare-se atentamente que na fórmula de Patrício Leite n! = Σnk=0(nk)(-1)k(n+z-k)n pois, z representa o já sobejamente descrito fragmento de Patrício; também, a soma do valor de n com o valor de z não altera os descritos segmentos, fragmentos ou triângulos de Patrício nem os seus significados interpretativos, por conseguinte, esta pode ser expressa pela letra p assim: n + z = p, assumindo a fórmula de Patrício Leite, nesta sequência, a seguinte tradução n! = Σnk=0(nk)(-1)k(p-k)n por outro lado na fórmula de Stirling S(s,n).n! = Σnk=0(nk)(-1)k(n-k)s o valor de s corresponde ao número de elementos de um conjunto. As fórmulas de Stirling e Patrício Leite divergem dialeticamente, entre outros aspectos interpretativos, na variação das bases e dos expoentes das seguintes expressões potenciais (p-k)n e (n-k)s. Agora, explicando matematicamente, as referidas expressões potenciais (p-k)n e (n-k)s, pois, as variações ocorrem: no valor do expoente para Stirling e no valor da base para Patrício Leite. Há como que uma certa dialética por simetria reflexiva estrutural entre as variações de variáveis de números potenciais, cujos expoentes simetrizam para bases e bases simetrizam para expoentes. Quando, num número potencial ou, por extensão cognitiva, qualquer função exponencial, Stirling trabalha a variabilidade dos expoentes ele vai encontrar os factoriais normais mas também os factoriais crescentes e decrescentes numa relação com o cálculo das diferenças finitas e das derivadas, por outro lado, quando nos números potenciais ou, por extensão cognitiva, qualquer função exponencial, Patrício Leite trabalha a variabilidade das bases vai encontrar a permanência indestrutível da identidade fundamental relacionada com as diferenças finitas e, em análise funcional, das derivadas sucessivas em relação com o comportamento de polinómios ou funções polinomiais de determinado grau. Esta antítese dialética que se verifica entre o pensamento matemático de James Stirling (1692–1770) e de Patrício Leite (1963–actualidade) permite o avanço cientifico da matemática.

 

Interpretação da fórmula de Patrício Leite

Na fórmula n! = Σnk=0(nk)(-1)k(p-k)n  a expressão (p-k)n  representa um polinómio de grau n em determinados pontos p; a expressão (nk)(-1)k representa os coeficientes que surgem quando aplicamos sucessivamente o operador de diferenças: Δf(x) = f(x+1) – f(x); n! é o resultado final das diferenças sucessivas ou da ultima derivada de um polinómio de grau n. Se pensarmos no princípio da inclusão-exclusão, representado por (-1)k, pois a fórmula consiste num modo de calcular as sobrejeções, sendo que estas, em conjuntos de igual tamanho, traduzem-se por bijeções ou permutações.

 

Exemplos de utilização da fórmula de Patrício Leite

 

O problema das caixas e bolas

O problema da distribuição de bolas em caixas surgiu com a necessidade de modelar situações matemáticas relacionadas com a contagem em combinatória clássica e, mais tarde, probabilidades e estatística. Numa primeira etapa foi aplicado em situações do dia-a-dia como, por exemplo, a optimização da gestão de recursos; posteriormente foi sendo aplicado em física estatística e, actualmente, na moderna ciência da computação. No âmbito desta modelagem é fundamental definir previamente se as caixas e as bolas são distinguíveis (diferentes) ou, por oposição, indistinguíveis (iguais). Vamos imaginar um conjunto de objectos (bolas) e um conjunto de contentores (caixas) sendo todos os objectos e todos os contentores diferentes, pergunto: de quantos modos diferentes os objectos podem ser distribuídos pelos contentores?  Nesta situação a fórmula matemática que se aplica é uma potência cujo expoente representa os objectos e a base representa os contentores; efectivamente, para cada objecto, pode ser escolhido cada um dos contentores pelo que basta multiplicar o número de contentores por si próprio tantas vezes como o número de objectos que existem; repare-se que, nesta primeira situação, a repetição de objectos em contentores diferentes não tem importância porém, agora, se existisse uma cláusula de restrição impondo que cada contentor apenas pode ter um objecto, já que não cabe mais do que um e, portanto, não se pode repetir a colocação de vários objectos no mesmo contentor; agora, com esta restrição, a fórmula matemática passaria a ser um factorial; efectivamente o primeiro objecto poderia ir para qualquer caixa, o segundo para qualquer caixa menos aquela que estava ocupada pelo primeiro e assim sucessivamente até ao resultado final que se traduz pelas permutações; portanto todos os elementos do grupo inicial estão envolvidos o que muda é, ordenadamente, o lugar que cada um ocupa e dai a sua permutação: o factorial é a fórmula matemática que traduz o total de permutações. Até aqui temos estado a pensar apenas numa distribuição automática de objectos por contentores, no entanto se introduzirmos o critério da vontade humana, portanto, uma escolha: isto é, a escolha do objecto ou do contentor; pois, nesta situação teremos um processo em duas etapas: numa primeira etapa usa-se a vontade e faz-se a escolha e numa segunda etapa faz-se a distribuição. Este processo em duas etapas: primeiro a voluntariedade da escolha e segundo a sequente distribuição, é traduzido por uma fórmula matemática que foi originalmente descoberta por Patrício Teixeira Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n. 

A explicação desta fórmula n! = Σnk=0(nk)(-1)k(n+z-k)n no âmbito do problema da distribuição de bolas (objectos) diferentes por caixas (contentores) diferentes, cujo número de bolas é igual ao número de caixas, sendo que em cada caixa apenas se pode colocar uma bola contempla os seguintes significados:

 n - representa o numero total de elementos que neste caso significa tanto o número de bolas diferentes como o número de caixas diferentes

 k - representa o número de caixas que, em cada passo da escolha voluntária, se decide que devem ficar vazias

 (nk) - representa as combinações sem repetição de n, k a k, portanto, de quantas formas diferentes se pode escolher k caixas (ou bolas) do conjunto total de n para em cada passo, ou momento, sofrer restrições; ou seja, representa o número de caixas que em cada momento se escolhe para ficar vazias

 (-1)k - representa o principio da inclusão – exclusão, portanto, quando k é um número par o termo é positivo representando a inclusão de caixas (ou bolas), quando k é ímpar o termo é negativo representando a exclusão das caixas que foram incluídas, servindo assim para corrigir as sobreposições

 (n-k)n - considerando z = 0 então o (n-k)n representa o número total de formas de distribuir as n bolas pelas (n-k) caixas que restaram sabendo que cada bola apenas pode ocupar uma caixa

Numa síntese conclusiva, esta fórmula encontra as permutações ou seja o número exato de maneiras de distribuir bolas diferentes por caixas diferentes onde cada caixa tem apenas uma bola, porém, repare-se, não segue unicamente o processo de distribuição por recorrência automática definida matematicamente pelos factoriais; pelo contrário, segue um processo em duas etapas; ou seja, numa primeira etapa é escolhido voluntariamente aquilo que na segunda etapa vai ser distribuído. Este processo em duas etapas permite a otimização operacional da tomada de decisões. A explicação da fórmula de Patrício Leite n! = Σnk=0(nk)(-1)k(n+z-k)n, do ponto de vista da escolha e distribuição, está concluída, contudo, existe um aspecto que cumpre salientar: a variável z; repare-se que foi considerado z = 0, portanto, coloca-se a pergunta: se z fosse diferente de zero?

Na situação problemática acima descrita, no problema das caixas ou contentores e das bolas ou objectos; o valor da variável z significa mais um grau de liberdade, ou seja, mais uma possibilidade de escolha na distribuição dos objectos pelos contentores. Se imaginarmos imensos contentores ao longo de um cais; contentores cujo número é realmente muito grande, muito superior ao número de objectos que se pretende distribuir, pois, com a variável z fica-se a saber que qualquer que seja a posição do contentor para iniciar a distribuição, o número de modos de organizar todos os elementos, todas as bolas ou objectos, portanto, o número de permutações é sempre igual, não varia; o conhecimento prévio desta constância invariante permite uma melhor otimização da decisão para a gestão eficiente dos recursos disponíveis. Contudo surge mais uma variável; realmente a fórmula: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n, contempla, também, a variável d; efectivamente, esta variável d acrescenta novas características ao problema da escolha e distribuição: desde logo dn trata-se de um factor multiplicador em ambos os lados da igualdade, ora isso parece determinar um aumento da escala do problema, porém, inserido no contexto das bolas e caixas significa a introdução de um novo atributo; por exemplo uma cor, uma etiqueta, um código de barras etc. Obviamente que dn configura a fórmula dos arranjos com repetição mas também se compreende que os arranjos com repetição são muito eficazes para aplicar, por exemplo, aos códigos de barras, entre muitas outras alternativas. Isto vai permitir uma melhor automatização na gestão do problema de escolher e distribuir objectos por contentores e identificar a sua localização através do código de barras, porém, se agora aplicarmos logaritmos a ambos os membros da igualdade vem: log (n!dn) = log (Σnk=0(nk)(-1)kdn(n+z-k)n), ou seja, agora avança-se da gestão individual dos objectos e contentores para uma analise da escala de magnitude e respectivas taxas de crescimento numa gestão da complexidade do todo; para uma melhor compreensão, poder-se-ia dizer que é como a diferença entre contar moedas individuais e medir a taxa de inflação da economia; ou seja, o planeamento passa da gestão operacional para a gestão estratégica.          

 

Aplicação a sistemas científicos

A fórmula matemática descoberta originalmente por Patrício Teixeira Leite e aqui reescrita como: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n, tem várias aplicações em complexidade de sistemas científicos; no entanto, primeiro tem de se verificar que existem, não apenas, simples relações de causalidade linear mas também relações de complexidade científica onde se verifica a emergência de padrões de repetição a partir de unidades identitárias complexas, depois tem de se considerar o sistema em observação e estudo.

Quando, numa situação concreta, esta fórmula for aplicada a epidemias, ou pandemias, como ocorreu com o Covid-19, pois, permite uma descoberta imediata, em tempo real, da viragem de padrões complexos que configuram mutações com novos vírus, novas estirpes, novas variantes e linhagens, seguida por uma vigilância rigorosamente acompanhada por meios informáticos capazes de promover, imediatamente, a afetação dos recursos necessários à gestão eficaz do sistema.

É sabido que, noutras situações científicas concretas, por exemplo: em sistemas termodinâmicos clássicos, escolhia-se uma certa quantidade de matéria ou definia-se um espaço para estudo e o que estivesse fora dessa escolha era considerado como meio envolvente ou vizinhança que estava separada por uma fronteira. O universo termodinâmico era constituído pelo sistema conjuntamente com a sua vizinhança. Os sistemas eram considerados fechados ou abertos, isolados ou não isolados conforme trocavam matéria e energia com a vizinhança. O estado mecanicista do sistema era definido por leis físicas lineares e deterministas com base em observações e medições macroscópicas de grandezas como pressão, volume e temperatura. A segunda lei da termodinâmica, ao introduzir a noção de entropia e irreversibilidade não podia ser explicada pelas equações de linearidade simétrica das leis físicas clássicas: a seta do tempo quebrava a equação de simetria mecanicista perfeita gerando uma polémica cientifica que veio a ser ultrapassada com a equação da entropia de Boltazmann e a física estatística. Efectivamente, foi apenas quando Boltazmann introduziu a sua equação que definia a entropia (S) como o produto de uma constante (Kb) pelo logaritmo das combinações ln (nk), assim: S = Kbln (nk), que se fez a ligação entre a física clássica mecanicista newtoniana e a nova física estatística; aqui, considera-se que n é o número de partículas do sistema e k é o número de partículas que estão numa posição a detalhar configurações específicas e, por inerência, os microestados; a seta do tempo resulta dos estados que têm maior número de microestados e, por isso, são estatisticamente mais prováveis, de maior desordem e de maior entropia, para os quais a natureza evolui. Obviamente, isto significa apenas que, actualmente, a ciência física assenta numa crença axiomática e dogmática de que a natureza dos sistemas segue a teoria estatística das probabilidades; neste contexto, nesta crença, um sistema termodinâmico tem mais probabilidade de se encontrar num estado cujo número de combinações entre os seus elementos é maior e, porque tem maior número de combinações, também, tem maior desordem. Em análise combinatória sabe-se que a ordem não é importante para as combinações, mas também se sabe que essas combinações seguem uma ordem algorítmica de distribuição ao longo do triângulo de Pascal. Quando a ordem algorítmica do triângulo de Pascal se relaciona com a ordem algorítmica, baseada na diferença sucessiva de números potenciais com o mesmo expoente mas a base crescente, do triângulo de Patrício, surge, por generalização, a fórmula de Patrício Leite n! = Σnk=0(nk)(-1)k(n+z-k)n; esta fórmula relaciona a desordem das combinações com a máxima ordem diferencial das permutações; por conseguinte, compreende-se que em qualquer sistema considerado, inclusivamente nos sistemas termodinâmicos, a desordem ou entropia de Boltzmann caminha conjuntamente com a ordem, ou seja: a ordem e o caos não existem separados; o caos entrópico, mais não é do que uma pré-ordem a partir da qual se processam os complexos padrões de emergência da ordem.

Os primórdios do pensamento racional que confronta a ordem determinista mecanicista de Newton com a desordem estatística, conduziram a paradoxos filosóficos de lógica profunda na fórmula de Boltzmann mas, para os ultrapassar, este admitiu a natureza probabilística e discreta das entidades que constituem o sistema termodinâmico; mais tarde, por analogia conceptual, Max Planck admitiu a discretização descontinua da radiação de corpo negro e assim nasceu a mecânica quântica. A confrontação antitética entre a ordem e a desordem conduziu aos, designados, condensados de Bose-Einstein como sendo um quinto estado da matéria, segundo o qual, a ordem atinge o seu limite máximo e a desordem de Boltzmann atinge o seu limite mínimo, pelo que as partes perdem a identidade que as separa e comportam-se como um todo unificado; esta transformação depende da temperatura e o ponto, ou posição, em que essa transformação ocorre é calculado pela variável d da fórmula de Patrício Teixeira Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n.

O mesmo fenómeno que ocorre com os condensados de Bose-Einstein, no qual as partes perdem a identidade que as separa para se comportarem como um todo unificado; também ocorre em todo e qualquer sistema considerado. A constatação deste fenómeno depende da posição entre o objecto observado e o sujeito observador, sendo o ponto de viragem, calculado através da fórmula de Patrício Teixeira Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n. Por exemplo, se imaginarmos uma viagem á Lua, constatamos que daqui, da Terra, a Lua é vista como um todo bastante homogéneo e unificado; porém esta Lua como todo unificado é apenas uma parte de um todo maior que é o Universo; caminhando em direcção à Lua, verificamos, com a aproximação, que a Lua se vai tornando cada vez mais heterogénea e diversificada, surgem as crateras, as planícies, montanhas e cordilheiras; cada vez mais, com a aproximação sucessiva, o foco da observação passa da lua para a planície e desta para o local de aterragem e assim sucessivamente; com o regresso e o afastamento sucessivo da Lua, ocorre o mesmo fenómeno mas agora em relação com a Terra; o ponto ou posição em que o foco de observação transita da parte para o todo ou do todo para a parte, é calculado pela fórmula de Patrício Teixeira Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n cuja variável d corresponde, neste ultimo exemplo concreto, à distancia.

Esta fórmula tem aplicação matemática para todas as situações em que se verificam fenómenos de fronteira ou transição antitética diferencial entre as partes e o todo, a continuidade e a descontinuidade, o homogéneo e o heterogéneo, a forma e o fundo, o ruido e o sinal, o determinismo e o indeterminismo, a entropia e a informação, a ordem e a desordem, etc.

As premissas da teoria dos sistemas afirmam, em concordância com a visão clássica ou antiga, que o todo é constituído por partes; mais, em concordância com a teoria da emergência, afirmam que o todo é maior que a soma das partes; também, em concordância com a teoria da complexidade, afirmam que cada parte separada é um subsistema constituinte de um sistema maior que, por sua vez, é um subsistema de um suprassistema ainda maior e assim sucessivamente até à filosofia da totalidade unificada. Estas premissas conduzem imediatamente para raciocínios matemáticos com base em relações de recorrência mas, também, para o axioma da escolha do sistema a observar. A fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n contempla o axioma do primado da vontade, na escolha do sistema, através da variável n; por outro lado, a variável k permite escolher através do princípio da inclusão-exclusão; as relações de recorrência, relacionadas com a distribuição, manifestam-se através da expressão (n+z-k)n; seguidamente, a variável d determina o ponto de viragem das fronteiras do sistema em relação com a posição do observador; finalmente, de um lado da equação está a ordem informacional das permutações e do outro lado está a desordem entrópica das combinações. O caos combinatório não é a descontinuidade identitária absoluta, pois, ele ainda permite a ordem probabilística com base na aleatoriedade estatística.

 

Originalidade identitária de Patrício Teixeira Leite: variável z

Realmente, a singularidade impar, a máxima originalidade criativa de Patrício Teixeira Leite surgiu, na fórmula: n! = Σnk=0(nk)(-1)k(n+z-k)n, com a variável z e, depois, algumas das relações e implicações que esta variável tem para a matemática. Efectivamente, esta variável z, introduzida na fórmula: n! = Σnk=0(nk)(-1)k(n+z-k)n, permitiu, entre outras descobertas originais, os fragmentos, segmentos, triângulos de Patrício, etc. que têm importantes implicações matemáticas mas também vasta aplicação a outras ciências exatas e, inclusivamente, na otimização da gestão de decisões.

Na fórmula de Patrício Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n: por maior que seja a variação da variável z, tanto em variáveis naturais como inteiras, racionais, reais, complexas ou qualquer outras, pois, n! permanece sempre constante, ou seja o valor de n! não varia com a variação de z, portanto, n! não tem qualquer dependência de z; esta ocorrência, esta constância de n! para qualquer que seja o valor da variável z (discreto ou continuo: racional, real, complexo, etc.), transforma a fórmula de Patrício Teixeira Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n numa das identidades fundamentais da matemática: a identidade de Patrício.

Qualquer estudioso da matemática sabe que as suas identidades, são as leis fundamentais do universo matemático, são os axiomas operacionais que garantem consistência e rigor ao sistema matemático; não são apenas as ligações profundas entre diferentes ramos que facilitam simplificação e eficiência, mas também, a descoberta de novos padrões matemáticos que permitem o desenvolvimento e avanço da matemática como ciência.

Ficheiro para download: Regressão Inferencial de Patrício Leite                    

                                                                                                                                                                                                                                                                             Doutor Patrício Leite

 8 de Maio de 2026

CRITICA DAS LEIS DA OFERTA E PROCURA

 CRITICA DAS LEIS DA OFERTA E PROCURA

Este microensaio de pensamento criativo, aplicado à teoria económica, surge num momento de relaxamento cognitivo, de repouso intelectual, de abrandamento da imaginação criativa como fundamento da produção de ideias científicas e filosóficas. A intensa complexidade cognitiva da criatividade matemática, científica e filosófica, abranda, para dar lugar a uma racionalidade mental contínua, mas suave, pouco exigente; porém, nesta pausa compensadora, é criada uma simples ideia: uma nova interpretação teórica aplicada aos fundamentos da actual ciência económica do mercado livre. Efetivamente, a categorização das ciências tem permitido uma melhor abordagem sistemática; também, os critérios que definem as regras categóricas, são meras aplicações da vontade humana; é neste contexto que surge o agrupamento científico: descritivas, quando apenas descrevem o respectivo objecto de estudo; preditivas quando conseguem, pelas relações de causa a efeito, prever o futuro com algum nível de previsibilidade estatística e, finalmente, prescritivas quando o sujeito observador impõe condições ao objecto observado. A teoria económica, enquanto categorização prescritiva assente na livre concorrência das leis da oferta e da procura; surge num contexto do desenvolvimento cultural traduzido por uma visão muito específica do homem e do mundo. Efectivamente, a grande maioria das teorias, ditas científicas, tem-se baseado numa visão egoísta, hobbesiana, de natureza concorrencial ou conflitual: numa máxima generalização, a teoria da evolução natural encara a conflitualidade entre a vida e a natureza com notável supremacia das forças da natureza e absoluta concorrência pela vida entre todos os seres vivos individuais; num outro extremo, muito particularizado, a teoria psicanalítica encara as relações conflituais intrapsíquicas com ataques e defesas do ego; entretanto, numa posição intermédia, surge a teoria económica que encara a concorrência social pelas leis económicas da oferta e da procura. A teoria económica não descreve a realidade como esta se apresenta, também não prevê uma realidade futura com base em relações de causa a efeito; a teoria económica prescreve situações ideais cujo mercado ideal, com infinitos vendedores a oferecer e infinitos compradores a procurar, teria um único preço a surgir concorrencialmente deste confronto; obviamente que, segundo esta prescrição teórica, nesta situação ideal o mercado seria dominado por um só preço, único e absoluto; no entanto este paradoxo não se verifica na realidade presente e nunca será verificado; o ser humano não comporta apenas uma única dimensão, o ser humano tem muitos aspectos que o diferenciam, tem uma enorme variabilidade; considerar o ser humano unidimensional na convergência para o preço de mercado, único e absoluto, é um mero ideal paradoxal e absurdo do unidimensionalismo humano. A situação descritiva da actual realidade mercantil mostra, a qualquer pessoa, uma observação do mercado real, com muitos e diferentes preços, muitos e diferentes vendedores dispostos a aceitar negociações por diferentes quantidades monetárias e, analogamente, muitos e diferentes compradores dispostos a pagar diferentes valores; o que domina o mercado é a heterogeneidade da diferença e não a homogeneidade da igualdade; porém, entenda-se, há também aspectos igualitários, aspectos comuns; repare-se que comprar e vender é apenas a bivalência de uma mesma realidade: a troca. Efectivamente, quem compra produtos vende dinheiro, quem vende produtos compra dinheiro. A observação atenta do mercado, permite verificar uma enorme diversidade de preços negociais, de preços de venda, de preços de compra, … mas também alguma regularidade previsível. Não é pela visão imediata e desatenta que se encontra esta regularidade previsível; é sim, pelo contrário, através de um desprendimento criativo sistémico, reflexivo e abstracto, que se encontra alguma regularidade que simula ou, grosseiramente, aparenta a aproximação à curva normal na distribuição dos preços.


Em qualquer mercado, a curva, grosseiramente em forma de sino, para a distribuição dos preços, lembra uma aproximação comparativa, analógica à estatística da lei dos grandes números e do teorema do limite central. Considerando o valor do preço como uma variável métrica continua e a simetria básica ou fundamental, dos dados observados: produtor – consumidor; oferta – procura; comprador - vendedor, etc. pois, o raciocínio estatístico analógico conduz imediatamente, o pensamento, para uma imagem mental, da curva em forma de sino, da distribuição normal dos preços, num mercado ideal com infinitos vendedores, infinitos compradores e infinitos preços de encontro negocial acordado; portanto, ao tratar de grandes números, num mercado ideal, em concorrência perfeita, a curva de distribuição dos preços será normal ou gaussiana. A distribuição normal, ou gaussiana, para um mercado ideal, não se verifica apenas para a distribuição dos preços concretizados após a negociação individual entre cada comprador e cada vendedor; mas também, em condições ideais, se encontram distribuições normais nos valores que o grupo dos vendedores está disposto a receber e o grupo dos compradores está disposto a pagar; efectivamente, em mercados ideais, encontram-se muitas curvas de distribuição normal. Extrapolando para a teoria clássica do mercado, pois, os produtos oferecidos seguem uma distribuição normal, os produtos procurados seguem uma distribuição normal e os preços concretizados seguem, também, uma distribuição normal. Quando, na sequência do pensamento de Adam Smith, a riqueza das nações resultaria do liberalismo de mercados livres e eficientes, pois, o preço de mercado, definido por essa teoria do liberalismo económico, como o encontro da oferta e da procura, corresponderia apenas e tão-somente, à média, mediana e moda da curva gaussiana da distribuição normal, aqui e agora, estipulada para a distribuição dos preços de mercado em condições ideais de concorrência perfeita. Efectivamente, a unidimensionalidade humana estipulada e prescrita pela teoria do liberalismo económico clássico do preço único de mercado é agora, pela teoria patricista estatística de mercado, transformada numa pluralidade multidimensional humana cujos infinitos preços, resultantes de infinitas negociações de um mercado ideal, seguiriam rigorosamente a curva de distribuição gaussiana ou normal; por outro lado, em mercados reais, mercados estes realmente encontrados no dia-a-dia da actividade económica negocial, a curva normal gaussiana perfeita adquire e contém irregularidades como a cauda á direita ou á esquerda, numa curtose que avalia a dispersão dos preços, mas também se verifica irregularidade na dispersão para qualquer outro factor de mercado considerado; além da curtose outras variações estatísticas encontradas nos mercados reais do dia-a-dia quotidiano, podem corresponder, entre tantas e muitas outras, por exemplo, ao desequilíbrio do desvio padrão com o respectivo desencontro entre a média, mediana e moda, numa transformação que se afasta da curva normal gaussiana típica de um mercado ideal. É sabido que a teoria clássica do liberalismo económico contempla alterações e irregularidades na lei da oferta e da procura, por exemplo, nas situações de monopólio, monopsónio, oligopólio, oligopsónio, cartel, dumping etc. mas também é aceite, nesta nova teoria patricista estatística de mercado, que essas e muitas outras irregularidades de mercado podem ser interpretadas e explicadas de acordo com as leis e curvas estatísticas que se afastam da curva normal gaussiana; desde logo, barreiras como a regulamentação legal, as ajudas de custo, a diversificação de impostos e taxas aduaneiras, os abusos de posição dominante, a publicidade com a criação de necessidades e de uma imagem de marca que se impõe no mercado mas também a contrafacção ou a assimetria de informação, constituem simples exemplos práticos de restrições ao referencial ideal da teoria clássica do liberalismo económico de mercado, mas também ao referencial ideal da nova teoria patricista estatística de mercado que encontra na normal distribuição gaussiana dos preços o seu ideal de referencia e interpreta as irregularidades como desvios a essa normalidade. Actualmente, os conhecimentos estatísticos já constituem a ferramenta básica para os estudos de mercado, resta, pois, substituir a teoria clássica do mercado como forma dominante de interpretação por uma nova teoria, mais adequada e mais realista: a teoria patricista estatística de mercado.

A conjugação das actuais leis do mercado ideal da oferta e da procura, permite, se cada uma seguir a curva sigmoide simetricamente crescente e decrescente, configurar uma curva de distribuição normal ou gaussiana. Continuando a imaginação comparativa, fundamentada na analogia criativa, pois, a curva gaussiana em forma de sino, permite conceber a aproximação à ideia das teorias do ciclo de vida aplicadas aos produtos, mercados etc. e, assim, estruturar campanhas de marketing, ciclos de produção, inovação etc., ampliando, deste modo, os horizontes da gestão ou, querendo, extrapolar para a microeconomia, macroeconomia, economia politica etc.

Doutor Patrício Leite 28 de Outubro de 2025 

Densidade numérica

Introdução
A constante
A variável
O grau de liberdade como grau de determinação do sistema
O determinismo e o indeterminismo
A distância e a diferença
A constante como medida de continuidade
A variável e a descontinuidade
Rácio ou razão entre constante e variável
Densidade clássica definida como uma razão constante
Racionalidade do mundo
Relação entre a densidade e a fórmula de Patrício Leite
A densidade do espaço e a fórmula de Patrício Leite
Síntese conclusiva
 
Introdução
A história do pensamento matemático filosófico tem, repetidamente, demonstrado que a distância entre os números não é sempre igual; efectivamente, a impossibilidade de encontrar mais do que dois divisores (a unidade e ele próprio) para cada número primo, constitui uma prova irrefutável da inconstância verificada na distância entre os números. A primalidade é uma propriedade muito importante na criptografia dos nossos tempos, mas tem, também, estimulado significativamente o avanço em teoria dos números; foi na sequência destes raciocínios que em finais de agosto e inícios de setembro de 2024 constatei empiricamente uma regularidade combinatória relacionada com a distância entre os números, introduzida na fórmula original de Patrício Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n assim traduzida posteriormente por: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n por conseguinte, imediatamente surgiu a ideia criativa de aplicar este conceito na resolução teórica de um problema físico conceptualizado, por mim, há cerca de 15 anos: o densitrão como elemento quantificador de uma continuidade descontínua. O problema da continuidade versus descontinuidade da matéria tem persistido desde os tempos primordiais do átomo: considerado como elemento teórico e indivisível da matéria; mais, este problema conduziu, no primeiro quartel do século vinte, ao início e desenvolvimento da física quântica numa inevitável ruptura com as ideias e o pensamento tradicional da física, da matemática, mas também da filosofia. É neste contexto que, agora, se desenvolve, sintetiza e divulga o conteúdo cognitivo deste ensaio cuja base matemática e filosófica parece, a guisa de neopitagorismo, transpor a realidade abstrata e conceptual dos números e respectivas relações teóricas para uma realidade física assente num realismo construtivista que aceita a observação objectiva de um objecto como imanente à construção interactiva com o sujeito.     
 
A constante
A única constância conhecida é o homogéneo do vazio, o nada, o zero, a coisa nenhuma, a ausência de, …; tudo o resto são constantes, ou inconstantes variáveis; efetivamente, na ausência da continuidade permanente, tudo muda, tudo é volúvel, tudo é descontínuo e heterogéneo. O homem precisa de firmar constantes para construir o seu conhecimento: em ciências sociais, em ciências naturais, em física, em matemática; as permanentes constantes manifestam a necessidade humana, os fundamentos do conhecimento, os fundamentos da humanidade; contudo, mais uma vez, em ultima instância, a única entidade realmente constante é o vazio do nada, tudo o resto são variáveis; por conseguinte, considera-se uma constante humanamente definida como sendo, apenas, uma variável que não varia; obviamente, a variação de uma variável que não varia, produz o zero, o vazio, o nada. Conclusivamente, o produto de uma determinada constante por qualquer variável segue a variação da variável, mas o produto do vazio por uma variável absorve essa variabilidade; corrobora-se, assim, que a constância da constante, ou seja, a constância do vazio, absorve toda a variação da variável, mas, por outro lado, a constante variação da variável é uma constante produtora, não absorvente. Aparentemente, o caos mais não é do que uma total variabilidade, portanto, uma variabilidade que não tem referenciação a qualquer parte do todo como constância conhecida, mas, por oposição, o seu referencial relativo é a variabilidade do todo variavelmente totalitário. O aleatório finaliza o determinismo, finaliza a ordem; porém, enquanto processo repetitivo, presume a equiprobabilidade, por conseguinte, ainda aceita como referência, a constante repetição e a homogenia da igualdade, essa homogenia é o vazio do nada; mas no caos a única referência é a variabilidade total que totalmente varia. Esquematiza-se, assim, por analogia metafórica, uma abordagem sistémica entre a parte e o todo: a aleatoriedade, pela metáfora analógica, aproxima-se da parte; por outro lado, o caos aproxima-se analogicamente do todo. A abordagem sistémica tem, na presente contemporaneidade científica, fundamentado teorias como a complexidade, o caos, a auto-organização e emergência, entre outras, cuja finalidade consiste na oferta de novas interpretações para observação de fenómenos e ocorrências indeterminados e imprevisíveis nos termos das relações de causalidade próprias da metodologia científica, tradicionalmente, linear e mecanicista.
 
A variável
Matematicamente, entre a constante permanência e a variabilidade caótica encontra-se o grau de liberdade, o nível ou grau de determinação de um sistema, a diferença entre a variabilidade e a constância. O nível de determinação que o grau de liberdade confere, mas também as operações com constantes, permitem classificar ou categorizar; por exemplo: constantes de adição que se associam com as progressões aritméticas, constantes de multiplicação que se associam com as progressões geométricas, constantes de proporcionalidade que se associam com os mais variados tipos de proporções etc. porém, repare-se que uma constante é apenas e tão-somente uma variável que não varia, uma variável cuja variabilidade é zero; por outro lado, uma variável é apenas a variação de uma constante. Constantes e variáveis compreendem uma única categorização cuja variabilidade das variáveis se relaciona com o grau de liberdade. Em última instância a máxima variabilidade é infinita e a mínima é zero; entre zero e infinito classificam-se e categorizam-se todas as constantes e todas as variáveis. Do ponto de vista analítico, a atividade matemática consiste na procura de constância na variabilidade ou, por outro lado, na procura de variabilidade na constância; por conseguinte, um dos métodos analíticos consiste em contemplar a variabilidade que varia e, nessa variação procurar a possibilidade, em qualquer nível, de um padrão de variação capaz de definir e estipular uma constância; a partir desse padrão de variação, a partir dessa constância, parte-se sucessivamente para novas variações e novas constâncias num raciocínio dialético dualístico que fundamenta, por exemplo, o método das diferenças finitas até, finalmente, encontrar a infinita continuidade típica da análise diferencial que, analogicamente, proporciona uma estabilidade comparativa entre o zero e o infinito como entidades homogéneas: aqui, sai a matemática discreta e entra a matemática da continuidade.
 
O grau de liberdade como grau de determinação do sistema
O conceito de liberdade, concebido pelas estruturas da linguagem, comporta inerentes paradoxos absurdos e irresolúveis. Qualquer raciocínio reducionista, capaz de conduzir o conceito de liberdade a uma totalidade absoluta comporta, imediatamente, o absurdo do absoluto; efectivamente uma entidade, qualquer que seja, só por existir tem, na sua existência, inerente, pelo menos, uma condição limitante da sua liberdade: enquanto existente, pois, não pode ser, não existente; por outro lado, a existência de uma identidade, ainda que determinadamente constante, significa, por inerência, a sua libertação identitária em face do meio que a envolve. Os raciocínios relacionados com as estruturas da linguagem, quando reduzidos ao absoluto unitário, são absurdos, provocam uma sensação mental de insatisfação: uma lacuna mental, uma dissonância cognitiva, uma incompletude insatisfatória que tem, cognitivamente, de ser resolvida; para ultrapassar o absurdo absoluto e unitário, surge, como fundamento racional, pela estrutura da linguagem lógica bivalente, o reducionismo dualista como método cognitivo capaz de conduzir os absolutos a uma dualidade irreconciliável satisfatória; neste contexto, o grau de liberdade, enquanto dualidade, polarizada entre variáveis libertárias e constantes deterministas, comporta necessariamente, um dualismo fundamental constitucional: o grau de liberdade é também, por inerência antitética, o grau de determinação do sistema; esta é, pois, a dualidade constitucional entre a liberdade da variabilidade infinita e a determinação da constante finitude.
 
O determinismo e o indeterminismo
Com a emergência da racionalidade, surge a razão humana, surge a procura de uma constância capaz de determinar a causa ou a finalidade da humanidade. Uma razão, qualquer que seja, surge, por inerência intrínseca, associada com o determinismo; por oposição, surge a inconstância da variabilidade como fundamento do indeterminismo. Considerando a incoerência paradoxal dos contraditórios: interior - exterior, homogéneo - heterogéneo, igual – diferente, constância – variabilidade, determinismo – indeterminismo, etc., surge a dialética de Heraclito que, numa primeira fase, apenas manifestava a ideia de variabilidade do movimento de modificação para, imediatamente, Parménides postular a eterna constância atemporal da uniformidade existencial como contraditório do devir mutável da mudança de Heraclito. A dialética, como método de resolução dos contraditórios, progrediu por um reducionismo racional dualista da lógica bivalente aristotélica para, finalmente, com Hegel, assumir a metodologia sequencial tripartida da tese, antítese e síntese. A dialética sequencial tripartida reconheceu, imediatamente, a antítese conceptual entre o idealismo e o materialismo com repercussões significativas na interpretação partilhada do mundo, contudo, na contemporaneidade cognitiva, manteve as propriedades sequenciais, contraditórias e reducionistas a um evolucionismo sequencial tripartido. Paradoxalmente, nem a dialética dualista contraditória do tempo dos primórdios nem a presente terceira via da síntese conciliatória, conseguiram resolver a absurda insatisfação inconformista da incoerente conflitualidade intrinsecamente cognitiva; contudo, é sempre possível considerar o desconhecido como uma heterogénea fragmentação descontínua de pontos indeterminados e, um destes pontos, será uma unidade identitária ordenada num finalismo determinista. Talvez assim, somente assim, se consiga resolver a insatisfação humana causada pela lacuna mental como uma dissonância produzida pela intrínseca conflitualidade cognitiva. O problema do mundo transforma-se no problema pessoal! Isto é filosofia!
 
A distância e a diferença
A abordagem tradicional, considera a matemática finita ou discreta no domínio dos números inteiros como descontinua, por outro lado, no domínio dos reais, está a matemática da continuidade considerada infinita; obviamente, com o conceito de infinitesimal como a quantidade numérica mais próxima de zero do que qualquer número real, surge o problema da descontínua continuidade. O conceito de infinitesimal surgiu nos primórdios históricos da matemática; efectivamente, Arquimedes introduziu o conceito e posteriormente Leibniz, através dos diferenciais, desenvolveu o cálculo infinitesimal. A partir das diferenças finitas e dos diferenciais, a progressão histórica do pensamento matemático evoluiu para a continuidade numérica com uma aritmética intervalar; no entanto, considera-se um intervalo como um conjunto de pontos dentro de uma determinada distância, por conseguinte, assume-se a distância como o aspecto da continuidade e os pontos como o aspecto da descontinuidade; agora, transpondo analogicamente para os sistemas numéricos, pois, os números naturais surgem descontinuamente como representantes dos pontos, diferenciados pela ordem que os coloca numa escala de sucessivas sequências dentro da continuidade de uma determinada distância. Os números contam-se; a contagem numérica exprime a descontinuidade que qualitativamente delimita, mas também é delimitada, pela distância numérica; por outro lado a distância que, qualitativamente, separa os números, exprime a continuidade cuja medição terá de ser quantitativamente realizada através de métodos comparativos a partir de uma unidade padrão; por conseguinte, torna-se consensualmente legítimo afirmar: se os números são contados, pois, a distância é medida. Mais, se a contagem e a medição constituem conceitos distintos e relacionados com o problema filosófico-matemático da continuidade, pois, também, a distância e a diferença, enquanto conceptualmente distintos, terão a sua abordagem própria; efectivamente: aquilo que diferencia os números é a posição relativa que cada um ocupa na escala ordenada, por outro lado, entre dois números sucessivos da sequência natural ordenada existe apenas uma distância, porém, entenda-se, essa única distância que existe entre cada número diferente pode ser contada e, assim, por adição sucessiva, originar a progressão numérica dos números naturais mas essa distância não tem de ser sempre igual; essa distância não tem de ser sempre constante; a distância entre cada número pode ser uma variável que varia com algum padrão de regularidade ou, de outro modo, a sua variação pode ocorrer num modo aleatoriamente ao acaso, portanto sem qualquer regularidade. Surge assim d como a variável distância que adapta a fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n. Considere-se a figura:  


 
A constante como medida de continuidade
Qualquer constante mantém, enquanto tal, na sua constância, uma invariabilidade determinante da sua continuidade; contudo, em conformidade com a mais elementar filosofia conceptual da linguagem, pois, a medida e a contagem configuram aspectos fundamentais da repetida dualidade dicotómica humana; efectivamente: a contagem refere-se à variabilidade da descontinuidade e, por outro lado, a medida comporta a constante continuidade. Medir e contar são duas actividades cognitivas paradoxalmente separadas na união, mas unidas na separação. A evolução histórica do pensamento matemático contemplou uma variabilidade descontínua da natureza traduzida pela contagem dos números naturais como entidades descontínuas, mas unidas por uma escala ordenada; posteriormente, a realeza da realidade configurou uma constante continuidade invariante como fundamento da medida dos números reais. Pela racionalidade cognitiva subtranscendente, a conceptualidade humana, apenas consegue vislumbrar a variabilidade, mas também a constância, num grau de liberdade intervalado entre o nada, o zero absoluto e a totalidade do infinito; como que, a variação da variabilidade, mas também a continuidade da constância são, para a transcendência humana, intervaladas entre duas homogeneidades absolutamente constantes: o vazio do nada e a totalidade do infinito. O desconhecido, a incerteza, a insegurança existencial do homem, obrigam a limitar tipologicamente constantes absolutas dentro das quais toda a ciência, todo o conhecimento, todo o entendimento humano se move: são as constantes absolutas que limitam o grau de liberdade no qual as restantes constantes e variáveis se alteram. A constância da variabilidade contínua, é medida, mas não contada, entre zero e infinito; a heterogeneidade descontínua, é contada, mas não medida, entre infinito e zero.
 
A variável e a descontinuidade
Qualquer variável que varia, promove a descontinuidade; efectivamente, entre dois diferentes valores existe, pelo menos, uma diferença: essa diferença, essa distinção identitária, constitui a descontinuidade daquilo que, não mais, se identifica. A origem etimológica da palavra identidade é bem clara: dos termos latinos idem e identitas derivam as ideias de o mesmo, a identidade, a igualdade, a permanência e a continuidade. Avançando para o proto-indo-europeu, parece que por sua vez, idem, deriva de um pronome demonstrativo; demonstrando que esse ou aquele que se mantêm idênticos, pois, também, mantêm a mesma identidade; porquanto, a identidade surge como uma qualidade demonstrativa da permanência, da continuidade, da constância singular, da unicidade constante. Por outro lado, a variação da variável, constitui uma quebra da identidade, uma quebra da constante continuidade. Qualquer categoria de linguagem matemática, baseada na lógica clássica, assume o princípio da identidade como fundamento estruturante do sistema; contudo, a lógica clássica conduz a nova física quântica até ao paradoxo de Schrödinger; por conseguinte, torna-se necessário um novo sistema lógico, uma lógica não-reflexiva, uma lógica que nega o princípio da identidade como meio de ultrapassar os paradoxos da física quântica. A analogia do “gato Schrödinger", simultaneamente vivo e morto, promove a ideia de uma razão: a razão humana como o fundamento construtivista de uma realidade racional: simultaneamente constante e variável, simultaneamente contínua e descontínua; uma realidade cuja acção de observar impõe, simultaneamente, a realidade do observado.
 
Rácio ou razão entre constante e variável          
Um rácio ou razão é constituído por uma fracção composta por um numerador e um denominador. Por outro lado, de um modo mais abrangente, a propriedade fundamental da divisão: Dividendo = Divisor x Quociente + Resto, impõe um rácio ou razão como sendo apenas uma divisão cujo dividendo se designa numerador, cujo divisor se designa denominador e cujo resto é igual a zero. Uma proporção é um aspecto mais restrito de um rácio ou razão; porquanto, é um rácio ou razão cujo quociente é um número fracionário.
Se na propriedade fundamental da divisão, o resto for considerado como uma constante de valor igual a zero, pois, o rácio ou razão surge representado por três incógnitas: Dividendo = Divisor x Quociente, agora, tendo em atenção as regras da equivalência matemática pois o Dividendo / Divisor = Quociente. O resultado de um rácio ou razão pode ser constante, razão constante; ou variável, razão variável. O conceito de proporção impõe uma igualdade entre duas razões cuja coerência se baseia num trabalho com números racionais: dividendo1/divisor1 = dividendo2/divisor2; nesta situação, a continuidade da constância e a descontinuidade da variação são calculadas através de quatro atributos. As relações entre estes quatro atributos podem ser calculadas através da análise combinatória. Quando aos quatro atributos correspondem quatro variáveis, pois, num sistema de equações lineares, o grau de liberdade é calculado, pela diferença entre o número de variáveis e o número de equações independentes surgindo um constante determinismo quando tem apenas uma solução já que o número de variáveis é igual ao número de equações independentes e o grau de liberdade é zero; por outro lado, se o número de variáveis é superior ao número de equações independentes pois o sistema é variavelmente indeterminado já que as infinitas soluções resultam de variáveis arbitrarias que não podem ser determinadas pelas condições equacionadas como igualitárias. Em sistemas sobredeterminados o número de restrições excessivo, ou seja, o número de equações é superior ao número de variáveis. Os sistemas sobredeterminados não têm a consistência lógica da razão humana, mas a inteligência ardilosa procura a sua resolução por intermédio de soluções aproximadas como, por exemplo, usando o método dos mínimos quadrados.
Considerando agora o raciocínio, nos termos da filosofia analítica da matemática, pois, os sistemas sobredeterminados transportam o pensamento para a teoria da complexidade com a emergência de padrões globais a partir das interacções locais numa múltipla causalidade circular em cada nível de organização; por sua vez, os vários níveis organizacionais, circulam, numa circularidade sem fim. É pela contagem linear desta circularidade sem fim que surgem os contraditórios paradoxais, típicos da incoerência racional dualística: interior – exterior, homogéneo – heterogéneo, igual – diferente, constância – variabilidade, determinismo – indeterminismo, etc., efectivamente, parametrizando a teoria da complexidade, afirma-se que em sistemas multicomplexos, por simples analogia comparativa, pode-se estabelecer uma correspondência entre cada constante e a restrição igualitária causada por uma equação independente, mas também, entre cada variável e a liberdade própria de uma incógnita do sistema; nesta condição, o grau de liberdade surge como a diferença entre a liberdade da variável incógnita e a restrição da constante; quando o número de restrições causadas pelas constantes supera o número de variáveis incógnitas livres, pois, tal significa que o sistema se diz sobredeterminado; este sistema sobredeterminado exige solução complexa. Acrescenta-se, o conjunto constituído pelas constantes numéricas, regras de operações matemáticas e padrões de pensamento pode, se as constantes restritivas superarem as variáveis livres, configurar um sistema sobredeterminado de complexidade matemática combinatória traduzida pela fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n sendo que, neste ambiente de elevada complexidade, a analise combinatória representada pela  igualdade de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n comporta como atributos as letras n e d que servem para designar constantes ou variáveis presentes em ambos os lados da equação.
 
Densidade clássica definida como uma razão constante
As constantes podem ser submetidas a múltiplas classificações: absolutas, relativas; razões constantes, constantes de proporcionalidade, constantes de primeira ordem, de segunda ordem, etc.
Tradicionalmente, a noção clássica de densidade foi primeiramente aplicada por Arquimedes nas ciências físico-químicas como uma razão ou quociente entre a massa como numerador e o volume como denominador; porém, mais tarde, o conceito, definição e aplicação evoluíram generalizadamente para muitas outras áreas das engenharias e ciências físicas, químicas, biológicas e humanas. Em matemática dos números naturais e inteiros, a densidade é, simplesmente, uma razão constante entre duas grandezas; pela racionalidade humana, em matemática dos números racionais, a densidade assume a forma faccionária de uma proporção. A aplicação da propriedade fundamental da divisão: Dividendo = Divisor x Quociente + Resto, impõe a densidade como um quociente, rácio, razão ou proporção como sendo apenas uma divisão cujo dividendo se designa numerador, cujo divisor se designa denominador e cujo resto é igual a zero. A partir desta tríade; quando qualquer um dos seus três parâmetros se considera constante, pois, o grau de liberdade aplicado a cada uma das variáveis restantes, fica condicionadamente restrito.
 
Racionalidade do mundo
A filosofia, a amizade pela sabedoria, procura levar metodicamente o conhecimento do saber humano até aos limites da racionalidade; por outro lado, entende-se a racionalidade como, formalmente, estruturada através de um rácio, uma razão, uma fração, um quociente; enfim, uma relação faccionária entre um numerador e um denominador. Por conseguinte, a analogia filosófica, cognitiva e expansiva, desta noção conceptual, transporta o conteúdo do pensamento racional para a respectiva relação faccionaria entre a parte como numerador e o todo como denominador; entre a descontinuidade do numerador e a continuidade do denominador; entre a contagem numérica do numerador e a medição, comparativa, á unidade do denominador; etc., finalmente, a racionalidade da razão, surge como uma nova dialética que ignora o afastamento antitético dos contrários mas, sim, proporciona um dinamismo dialético continuado na descontinuidade, diferente na igualdade, totalitário na parte que parte a totalidade do todo; é nesta nova dinâmica dialética que a densidade se enquadra; é nesta nova dialética dinâmica que a densidade se relaciona com a fórmula de Patrício Leite.         
 
Relação entre a densidade e a fórmula de Patrício Leite
As relações entre a propriedade fundamental da divisão: Dividendo = Divisor x Quociente + Resto; a noção clássica de densidade: Numerador / Denominador = Fração, portanto, massa / volume = densidade; e a fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n permitem, agora, abordar a relação entre a densidade e a fórmula de Patrício Leite; efectivamente, se n = 3 então, por inerência matemática, na aplicação da fórmula de Patrício Leite, surge dn = d3 e sabendo que d = distância, imediatamente se compreende que d3 é um volume; com esta volumetria tridimensional pode, para qualquer distância determinada e definida aprioristicamente, ser calculada uma densidade numérica absoluta mas também uma densidade absoluta de permutações sem repetição. Logicamente, d3 compreende as três dimensões clássicas: altura, largura e profundidade; a variação destas três dimensões exprime o contorno da forma de qualquer figura geométrica, bidimensional, ou sólido geométrico tridimensional. Com a fórmula de Patrício Leite e as várias aplicações do conceito de densidade torna-se possível imaginar, não apenas um volume tridimensional, mas todas as dimensões possíveis numa multidimensionalidade até ao infinito.
 
A densidade do espaço e a fórmula de Patrício Leite  
A densidade do espaço é um conceito criado e concebido por Patrício Leite há cerca de 15 anos. De acordo com este conceito o espaço não compreende apenas a abordagem euclidiana pela bidimensionalidade da linha recta como menor distância entre dois pontos; compreende sim, também, a tridimensionalidade volumétrica captada pelo ser humano. Por conseguinte, o espaço surge, em Patrício Leite, com uma anisotropia cujas propriedades e respectivas grandezas medidas variam com a direcção e sentido, mas também, entre outros, em relação ao momento da medição; numa variabilidade de variação variada cuja única constância de permanência se relacionaria com a densidade, ou seja, o densitrão como medida quântica e quantificada da densidade. A filosofia do densitrão aponta para a sua conceptualização como a peça elementar de um puzzle; este densitrão, esta peça elementar de um puzzle totalitário existencial, teria contornos infinitamente deformáveis e a sua única constância seria a densidade. É neste contexto metafórico, ou seja, a construção do puzzle, que em qualquer observação da realidade física como um fenómeno científico, se constata a deformação de contorno e tamanho com o aumento ou diminuição da distância volumétrica espacial entre o observador e o objecto observado. Assim, para melhor entendimento, por analogia comparativa, o espaço poderia ser constituído por dobras ou pregas, invaginações ou enrolamentos, vórtices e redemoinhos que se enrolariam sobre si próprios em enovelamentos multidimensionais cuja relação de natureza constante se relacionaria com a densidade: a densidade do espaço traduzida pelo densitrão. A frequência de formação e deformação do espaço: destas várias pregas, invaginações, enrolamentos e enovelamentos etc. iriam originar simples pulsos descontínuos, mas também, pulsos vibratórios ou pulsos oscilatórios de natureza ondulatória cuja frequência poderia ser captada pelo ser humano promovendo a sensação de continuidade nos estados da matéria: sólido, liquido, gasoso, plasma, ou outros como campo eletromagnético, gravitacional, etc. A variabilidade do espaço com as suas mutações e permutações poderia originar padrões de repetição com múltiplas estruturas emergentes numa complexidade capaz de explicar todos os fenómenos observados e compreendidos pela física como ciência. Surge agora a fórmula de Patrício Leite: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n que, na complexidade, permite relacionar todas as permutações diferenciais n! com a distância do espaço multidimensional dn numa constância associada com a densidade: a densidade do espaço. Obviamente, aqui, n refere-se a contagem numérica discreta e d refere-se a medição da distância contínua entre números porém, entenda-se, não menos importante, doravante, o raciocínio teórico aqui exposto pode ser adaptado e extrapolado com objectivos de aplicação prática como, reconhecidamente, se procede no âmbito da inferência estatística.
 
Síntese conclusiva
Este ensaio manifesta uma grande diversidade de conceitos e raciocínios cuja aparência, confusa e variada, pode aparentar descabimento; porém, salienta-se, giram todos em torno da mesma procura filosófica. De per si, o ensaio não constitui uma etapa final e acabada; no entanto, enquanto etapa intermediaria, manifesta uma riqueza da filosofia criativa relacionada com as várias interpretações que se podem confrontar com a descoberta empírica da fórmula de Patrício Leite: n! = Σnk=0(nk)(-1)k(n+z-k)n, tendo atenção cada um dos membros desta igualdade. Obviamente, por método, cada conceito, aqui expresso, é analiticamente explorado até aos limites filosóficos da sua coerência racional; a aparência confusa, variada e descabida surge, precisamente, no limbo, no limite entre a racionalidade e a irracionalidade da incoerência humana; seguidamente, por norma, procura-se a analogia metafórica comparativa e agregadora como fundamento de uma síntese matemática e filosófica capaz de proporcionar alguma utilidade em teoria geral da ciência e da física em particular. Por exemplo: para a densidade do densitrão parte-se do conceito elementar, estabelecido pelas ciências físico-químicas, considerando a densidade como sendo uma razão entre a massa e o volume; seguidamente constata-se que entre dois números sequenciais da escala numérica ordenada existe apenas uma diferença contada pela sequência dos números naturais; porém, a dimensão, o tamanho ou comprimento dessa diferença, isto é a distância entre cada dois números da respectiva sequência ordenada, necessita de uma unidade de medição e, reparando atentamente, essa unidade, para produzir efeitos práticos, tem de ser padronizada pala teoria científica; mais, essa distância entre dois números da escala ordenada, ao longo de toda a escala, até ao infinito da contagem, não aparenta ser sempre igual. Continuando o raciocínio: sabe-se que a distância se mede em metros e a tridimensionalidade do metro origina o volume; a partir daqui pode-se efectuar a contagem dos números por unidade de volume e surge a densidade numérica; do mesmo modo, se fossem efectuadas permutações e contadas sequências ordenadas surgiria a densidade destas sequências; por conseguinte, agora, por simples analogia comparativa, transpõe-se o conceito da densidade numérica para o conceito físico de densidade do densitrão, considerando este como a menor distinção formal quantificada de um conteúdo espacial continuo, em analogia com o fotão da teoria da relatividade. São estas sequências, saltatórias, de raciocínios analógicos - porém, compreenda-se - cuja base do fundamento é científica; que proporcionam a coerência racional da constelação teórica expressa neste ensaio. Quando existe regularidade de uma distância entre os números, esta pode ser mensurável, assim formalizada: n!dn = Σnk=0(nk)(-1)kdn(n+z-k)n. Considerando que um dos lados da igualdade apresenta relações entre agrupamentos combinatórios com e sem ordem e o outro lado manifesta, puras permutações ordenadas mas também arranjos com repetição, cuja leitura combinatória se faz com base em contagens discretas mas cuja medição da distância impõe, por necessidade, o conceito de continuidade; pois, tal, manifesta um paradoxo cognitivo entre a continuidade e a descontinuidade dos números. Os axiomas matemáticos não parecem resolver este paradoxo, por outro lado, a sua extrapolação analógica e ampliada para a história do pensamento filosófico também o não resolve; por conseguinte, surge este ensaio como mais uma actividade de imaginação criativa, uma etapa intermédia, capaz de facilitar ideias mais sólidas, mais consistentes e práticas: em aplicação física, com a matematização da teoria do densitrão e, entre outras, em aplicação matemática, como na estatística e nas estratégias de investigação operacional.                                                             Doutor Patrício Leite 21 de Junho de 2025
Ficheiro para download: Densidade numérica