Programação Detalhada

Minicursos

Ministrante: Geraldo Lúcio Diniz (UFMT) vol. 54 - Notas Mat. Aplic.

Resumo: Com o intuito de apresentar situações-problema, que possam servir de motivação para o uso de equações de diferenças, bem como sistemas de equações de diferenças e para o estudo de métodos de resolução de problemas não lineares, com análise de estabilidade, é que se pretende oferecer este minicurso. A proposta inclui o desenvolvimento de modelos discretos e suas aplicações a problemas biológicos. O material desenvolvido para este curso tem o objetivo de complementar a formação dos graduandos e de apresentar aos professores do ensino básico um “ferramental matemático” que os estimule a trabalhar a Matemática de maneira mais contextualizada às situações cotidianas. O conteúdo consiste em: visão geral de alguns modelos matemáticos; solução de problemas reais da biologia utilizando ferramentas matemáticas; resolução de problemas de variação discreta, enfatizando possíveis métodos de solução; estudo qualitativo do comportamento das soluções de equações de diferenças; estudo de autovalores complexos na solução de equações de diferenças e analogias entre as equações de diferenças e as equações diferenciais.

Nível: Graduandos e graduados em Matemática.

Pré-requisitos: Conhecimentos de funções de variável real e gráficos de funções

Ministrantes: Christina Fraga Esteves Maciel Waga (UERJ) e Lilian Markenzon (UFRJ), vol. 82 - Notas Mat. Aplic.

Resumo: Um dos assuntos mais atuais em grafos é a área que trata de classes e soluções computacionais para problemas nas mesmas. Neste contexto, a classe dos grafos cordais e suas subclasses é uma das mais estudadas. No minicurso mostraremos os aspectos importantes na abordagem de uma classe de grafos: a definição, caracterizações, algoritmos eficientes de reconhecimento e o relacionamento com outras classes. Trataremos, em particular, dos grafos de intervalo e grafos estritamente cordais. Fator decisivo nesse estudo é o emprego de estruturas específicas, concebidas para lidar com cada classe de maneira adequada e que são essenciais para o desenvolvimento de algoritmos eficientes. Apresentaremos, então, um conjunto de ferramentas estruturais – estruturas diversas com as quais é possível estabelecer, de uma forma mais sistemática, as propriedades das classes estudadas – descrevendo como são constituídas e suas propriedades.

Nível: Graduação.

Pré-requisitos: Conhecimentos básicos de Teoria de Grafos e Algoritmos.

Ministrantes: Roberta de Queiroz Lima (PUC-Rio) e Rubens Sampaio (PUC-Rio), vol. 70 - Notas Mat. Aplic.

Resumo: Conceitos básicos: espaço de probabilidade, objetos aleatórios (variáveis aleatórias discretas e contínuas, vetores aleatórios, processos estocásticos), estatísticas de primeira e segunda ordem, condicionamento e independência; Discussão sobre o que é incerteza e uso de estatísticas para medir incerteza; Transformação de um objeto aleatório: soma de variáveis aleatórias independentes e dependentes; Discussão sobre o que diz a literatura sobre o que é propagação de incertezas; Método de Monte Carlo: lei dos grandes números, teorema do limite central, aproximação de integrais, construção de um modelo probabilístico e de um modelo estatístico; Construção de um modelo probabilístico; Geração de amostras de variáveis e vetores aleatórios: método da inversão, método da rejeição, regra da cadeia, Cadeia de Markov Monte Carlo (MCMC); Construção de um modelo estatístico: estimadores de estatísticas e histogramas.

Nível: Graduação e Pós-graduação.

Pré-requisitos: Não Há.

Ministrantes: Daniel Vigo (UFRJ) e Silvana Rossetto (UFRJ), vol. 84 - Notas Mat. Aplic.

Resumo: Neste minicurso, queremos oferecer um guia básico para o desenvolvimento, implementação e avaliação de algoritmos numéricos paralelos usando GPUs. Selecionamos como casos de estudo alguns problemas de álgebra linear e equações diferenciais. Embora já existam diferentes implementações paralelas para esses problemas disponíveis na literatura, nosso objetivo é mostrar de forma sistemática como construir algoritmos paralelos para execução em GPUs selecionando e avaliando diferentes técnicas de particionamento do problema. Desse modo, o minicurso visa apresentar os fundamentos básicos da programação paralela para que os estudantes possam construir seus próprios algoritmos paralelos visando atender requerimentos específicos de suas aplicações. Esperamos que este minicurso sirva de apoio e incentivo para que os estudantes explorem de forma eficiente as vantagens das novas arquiteturas de hardware paralelo, em particular as GPUs.

Nível: Graduação e Pós-graduação.

Pré-requisitos: Disciplinas básicas de programação de computadores e de cálculo numérico, domínio básico da linguagem de programação C. Não necessários conhecimentos de programação paralela.

Ministrantes: José Antonio Salvador (Ufscar), Eleni Bisognin (Unifra) e Vanilde Bisognin (Unifra)

Resumo: Nos últimos tempos, o estudo da modelagem matemática tem crescido muito no Brasil, tanto na área da Matemática Aplicada quanto na área de Ensino de Matemática, em pesquisas desenvolvidas por investigadores com interesse em oferecer alternativas para a sala de aula. Assim, a proposta deste minicurso é trabalhar e discutir atividades de modelagem que contemplam conteúdos matemáticos da Educação Básica e Superior. Busca-se, por meio dessas atividades, proporcionar um ambiente de discussão e diálogo sobre a Modelagem Matemática, como metodologia de ensino e os desafios de sua utilização em sala de aula. Pretende-se criar um espaço de debate em torno dos aspectos teóricos da Modelagem Matemática e de sua aplicabilidade por meio do relato de experiências e provocar reflexões sobre os desafios da inserção na prática pedagógica do professor de Matemática.

Nível: Graduação (bacharelado e licenciatura), Professores da educação básica e superior.

Pré-requisitos: Dois primeiros anos de graduação.</p>

Ministrante: João Frederico da Costa Azevedo Meyer (Unicamp)

Resumo: Neste minicurso irei iniciar com uma definição de Equações de Diferenças e, a partir das Equações de Primeira Ordem e com exemplos, passar a equações de ordens superiores, usando apenas e tão somente conceitos do ensino médio. Em seguida irei propor exemplos cuja modelagem pode ser expressa em termos de sistemas de Equações de Diferenças (tanto os lineares quanto os não lineares), explorando-as através de programas no software MATLAB e interpretando os resultados para exemplos históricos e clássicos. Neste momento iremos trabalhar com a modelagem de compartimentos de espécies de reprodução discreta, levando ao conceito de pirâmide etária para essas espécies. Também aqui um programa poderá, durante a aula, executar propostas de controle. No tocante a sistemas não lineares, iremos fazer um estudo dos modelos discretos de Lotka-Volterra incluindo aí o controle e/ou uma colheita e, ainda, modelar problemas de controle de poluição de bacias hidrográficas, usando o software MATLAB para explorar propostas dos alunos.

Nível: Graduandos e graduados em Matemática.

Pré-requisitos: Conhecimentos de funções.

Plenárias e Semi-Plenárias

Conferencista: João Frederico da Costa Azevedo Meyer (Unicamp)

Resumo: Desde o trabalho do historiador Heródoto, a necessidade de contabilizar populações tem sido um desafio por sua necessidade social, estratégica, natural. Iremos mostrar a evolução dos modelos utilizados, ilustrando alguns dos historicamente mais conhecidos e chegando às modelagens atuais com dependência espaço-temporal. Serão abordados modelos em que espécies interagem e como estas dinâmicas são relevantes a estudos transversais desde a demografia ao controle biológico de pragas. De início as equações usadas são as assim chamadas Equações de Diferenças, um instrumental discreto. No entanto, à medida que o tempo passou, as necessidades foram exigindo o uso de EDO's e sistemas de EDO's, EDP e sistemas (lineares ou não), o uso de parâmetros fuzzy e derivadas no sentido de distribuições com o uso de formulações fracas ou variacionais.

CP1 (Melhor Tese de Doutorado): Divulgação após 19/06/2017.

Conferencista: Leo Liberti (CNRS &amp; LIX, Ecole Polytechnique, France).

Abstract: Many problems in data science are addressed by mapping entities of various kind (e.g. words, finite sets, relations, graphs, orders, lists, files, analogue or digital signal streams, rows or columns in a database table) to vectors in a Euclidean space of some dimension, which is home to several well-known and efficient methods. Most of these methods (e.g. Multidimensional Scaling, Principal Component Analysis, K-means clustering, random projections, compressed sensing) are based on the proximity of pairs of vectors. In order for the results of these methods to make sense when mapped back, the proximity of entities in the original problem must be well approximated in the Euclidean space setting. If proximity were known for each pair of original entities, this mapping would be a good example of isometric embedding. Usually, however, this is not the case, as data are partial, wrong and noisy. I shall survey some of the methods above from the point of view of Distance Geometry.

 

Conferencista: Abimael Fernando Dourado Loula (LNCC/MCTIC).

Resumo: É apresentada uma visão parcial e pessoal do desenvolvimento dos Métodos de Elementos Finitos – MEF, particularmente no Brasil, a partir da década de 70, e seus impactos nas Engenharias e na Matemática Aplicada. Perspectivas das novas formulações em espaços de funções descontínuas são discutidas.

 

Conferencista: Vanilde Bisognin (Unifra)

Resumo: A modelagem matemática é uma atividade científica que, ao ser trabalhada na sala de aula, assume um papel pedagógico que favorece a prática interdisciplinar entre diferentes áreas do conhecimento e torna o ensino da matemática significativo para os alunos. Nesta conferência pretende-se trabalhar a construção de modelos geométricos com o objetivo de responder as seguintes questões: É possível construir modelos geométricos que possuem área limitada e perímetro infinito? É possível construir modelos geométricos que possuem área limitada e perímetro infinito e que não sejam fractais? É possível construir modelos geométricos espaciais com os mesmos questionamentos anteriores? Por meio de exemplos, inspirados no processo de modelagem, tentaremos buscar respostas para as questões propostas. Vamos mostrar que é possível construir modelos significativos partindo-se de questões intrínsecas da própria matemática.</p>

Conferencista: Ésper Abrão Cavalheiro (Unifesp)

Resumo: O termo “Convergência do Conhecimento” se refere à combinação sinérgica dos principais campos da ciência e da tecnologia (C&amp;T), principalmente daqueles cujos avanços estão ocorrendo em escala muito veloz, como é o caso da “nanociência e nanotecnologia”, da “biotecnologia e biomedicina”, incluindo a engenharia genética, da “tecnologia da informação”, incluindo a computação avançada e as comunicações e da “ciência cognitiva”, incluindo a neurociência cognitiva. Essa “Convergência” se apoia na unidade “nano” da matéria e na integração oriunda dessa escala. Avanços revolucionários nas interfaces entre áreas de C&amp;T previamente separadas estão prontas para o desenvolvimento de novas estratégias que tragam respostas às principais questões humanas e soluções até hoje impensáveis ou imaginadas apenas no campo da ficção científica. A integração dos diferentes campos de C&amp;T pode levar ao aprimoramento do desempenho humano – incluindo: maior eficiência do trabalho, aumento da capacidade cognitiva e sensorial, melhor criatividade individual ou grupal, avanço no desenvolvimento de tecnologias efetivas de comunicação, tais como a interação cérebro-cérebro, aperfeiçoamento as interfaces homem-máquina incluindo a engenharia neuromórfica, etc. Mas quais as possíveis implicações éticas e sociais desses avanços? Que resultados esperar? Que estratégias educacionais serão necessárias para trabalhar nessa fronteira? A “Convergência do Conhecimento” pode dar origem a um novo “renascimento” ao incorporar a visão holística das novas tecnologias, os sistemas complexos matemáticos, e a compreensão “causa e efeito” do mundo físico e, assim, buscar compreender o universo desde a escala “nano” à escala “planetária”.

Conferencista: Carlos Alberto de Bragança Pereira (USP)

Abstract: P - value is an index of evidence on the validity of a (null) hypothesis being tested. This is the common understanding in the use of significance tests. The usual canonical values are 1%, 5% and 10% regardless of sample size. A paradox arises precisely because the level of significance is not related to sample sizes: "We increase the sample size to reject the null hypothesis." The present work aims to find the optimal significance level for each sample size and then to present an adaptive P-value. The result of a hypothesis test will depend on two values: A P that depends on both the observed value x and the level of significance α that is sample size dependent: P(x) and α(n). To be able to use the correct definition of P-value - probability of the set of points more extreme (in relation to the null hypothesis) than the observed x - it is necessary to define an order in the sample space. The extended Neyman-Pearson test demonstrates that the optimal test depends on the likelihood ratio and weights given to the two types of error. These weights will define the importance that would be given for the two types of error, α and β. The optimal level of significance will be the α* which minimizes Aα + Bβ considering the weights A and B. Our blended P-value consists of using the Bayes Factor (prior-odds multiplied by the likelihood ratio) of each possible sample observation to order the sample space. The P-value, calculated in this way and using the level of significance adapted for decision making, is dimensionless and does not violate the likelihood principle. Our calculation is a comparison of the conditional predictive functions.

Conferencista: Ralf Deiterding (Univ. of Southampton – Reino Unido)

Abstract: The majority of available computational fluid dynamics (CFD) methods approximate the incompressible or weakly compressible Navier-Stokes equations, which leads to a globally coupled problem that in practice can only be solved by iteration. As an alternative, we have adopted the lattice Boltzmann method (LBM). The LBM is based on solving the Boltzmann equation in a specially chosen, discrete phase space and fully explicit in time. Being a type of Cartesian immersed boundary method, the LBM is also well suited for modeling fluid-structure interaction and without difficult mesh untangling operations. Since the utilization of uniform lattices is not effective for realistic geometries, we have incorporated the LBM in finite volume formulation into our parallel AMROC software, which supports block-structured adaptive mesh refinement (SAMR) algorithms generically. Distributions streaming across refinement boundaries during the recursive temporal update are considered and employed in the collision step of the LBM by a correction-type algorithm that was especially designed for the SAMR methodology. In AMROC, geometrically complex, triangulated boundaries are first transformed into a scalar level set function on the Cartesian mesh that stores the distance to the boundary surface. A ghost fluid type approach is applied to implement moving wall boundary conditions. The presentation will describe the employed algorithms and present verification and validation computations. Supplemented with a Smagorinsky-type large-eddy simulation turbulence model the approach is capable of simulating instationary large-scale aerodynamics configurations at a fraction of the computational costs of conventional CFD solvers. High-resolution computations of wind turbine wake and vehicle aerodynamics and thermal convection problems will be discussed to showcase the overall approach.

Conferencista: Daniel Sadoc Menasche (UFRJ)

Abstract: The infrastructures used in cities are consistently becoming more automated. Examples of infrastructures include those to supply power, water and gas. As society depends critically on these cyber-physical infrastructures, their survivability assessment deserves more attention. In this overview, we first touch upon a taxonomy on survivability of cyber-physical infrastructures, before we focus on three classes of infrastructures (gas, water and electricity) and discuss recent modelling and evaluation approaches and challenges. Traditional approaches to study the impact of failures, and to understand how the system behaves when faced with disruptions, involve detailed simulations. However, simulations fall short in terms of scalability. The high computational costs preclude the analysis of a large number of configurations, and practitioners have to focus on the most likely or promising setups. In order to search for the most promising setups, we focus on survivability solutions which characterize the transient system behavior from failure up to recovery, given the occurrence of a disaster (GOOD). Using simple survivability models, we cope with the complexity challenge and avoid dealing with stiff problems. In particular, failure rates and repair rates, which usually differ by many orders of magnitude, are treated separately.

Conferencista: Welington de Oliveira (UERJ)

Abstract: We consider well-known decomposition techniques for multistage stochastic optimization and new schemes for stabilizing calculations as the iteration process progresses. The given algorithms combine ideas from finite perturbation of convex programs and level bundle methods to regularize the so-called forward step of these decomposition methods. In contrast to other regularized approaches for multistage programs, the given algorithms do not suffer from the effect of bad quality incumbent points. Numerical experiments on a hydrothermal scheduling problem indicate that our algorithms exhibit significantly faster convergence than the classical Stochastic Dual Dynamic Programming algorithm.

Minissimpósios

Coordenadores:Vinícius Viana Luiz Albani (UFSC), Antônio Carlos Gardel Leitão (UFSC).

Abstract: The aim of this minisymposium is to present some recent developments of the theory and practice of inverse problems, giving special attention to applications in different areas, such as, Heat Transfer, Elasticity, Wave Scattering, Mathematical Finance, and Tomographic Imaging.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS1: New Trends in Inverse Problems
Coordenadores: Vinícius Viana Luiz Albani (UFSC) e Antônio Carlos Gardel Leitão (UFSC)
Local:  A ser definido
08:15-08:45

Inverse Problems in Space Research: Methods and Applications

Haroldo Fraga de Campos Velho (INPE)

08:45-09:15 Determination of Distributed Forces on Webs of Elastic Lines
Alexandre Kawano (USP)
09:15-09:45 Inverse Scattering on Asymptotically Hyperbolic Manifolds
Raphael Falcão da Hora (UFSC)
09:45-10:15 Solução Numérica de Problemas Inversos em Neurociência
Jemy Valle (LNCC)

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS1: New Trends in Inverse Problems
Coordenadores: Vinícius Viana Luiz Albani (UFSC) e Antônio Carlos Gardel Leitão (UFSC)
Local: A ser definido
14:00-14:30

A Projection Strategy for Choosing the Regularization Parameter of Iterated Tikhonov Method in Banach Spaces
Fabio Margotti (UFSC)

14:30-15:00

Problemas Inversos em Biotransferência de Calor
Helcio Orlande (COPPE-UFRJ)

15:00-15:30

Local Volatility Calibration with Applications
Jorge Passamani Zubelli (IMPA)

15:30-16:00

Wave Scattering: Inverting from Theory to Practice
Wagner Barbosa Muniz (UFSC)

 

Coordenador: Agnaldo José Ferrari (Unesp – Bauru/SP)

Resumo: O objetivo do minissimpósio é divulgar algumas técnicas utilizadas no estudo de reticulados algébricos obtidos via corpos de números, enfocando o estudo de empacotamento de esferas em espaços euclidianos e hiperbólicos. Neste minissimpósio veremos, também, diferentes métodos de pesquisar os melhores reticulados, visando sempre determinar aqueles de maior densidade de centro, através das técnicas geométricas e também das técnicas algébricas.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS2: Códigos e Reticulados Algébricos
Coordenador: Agnaldo José Ferrari (Unesp – Bauru/SP)
Local:  A ser definido
08:15-08:45 Códigos Lineares Via Números de Fibonacci
Antonio Aparecido de Andrade (Unesp)
08:45-09:15 Construção do Reticulado Hexagonal Via Método de Kruskemper
Agnaldo José Ferrari (Unesp)
09:15-09:45 Somas Diretas de Z8 e E8 com Diversidade Máxima
Grasiele Cristiane Jorge (Unesp)
09:45-10:15

O Código de Prata e a Construção do Reticulado E8
Carina Alves (Unesp)

 

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS2: Códigos e Reticulados Algébricos
Coordenador: Agnaldo José Ferrari (Unesp)
Local: A ser definido
14:00-14:30

Reticulados Algébricos em Dimensões 2n via álgebra dos Quaternios
Cintya Wink de Oliveira Benedito (Unesp)

14:30-15:00 Modulação Codificada Baseada na Teoria dos Reticulados
Edson Donizete de Carvalho (Unesp)
15:00-15:30 Reticulados Dn-rotacionados Via Corpos de Números Totalmente Reais
Robson Ricardo de Araujo (Doutorando, IMECC – Unicamp)
15:30-16:00

Códigos de Bloco Espaço-temporais
Eliton Mendonça Moro (Doutorando, Ibilce – Unesp)

Coordenadores: Elbert Einstein Nehrer Macau (INPE), Othon Cabo Winter (Unesp – Guaratinguetá)

Resumo: Os satélites artificias e as sondas de exploração espacial, para cumprirem suas missões, precisam seguir trajetórias apropriadas, cuja concepção explora as não linearidades intrínsecas da interação gravitacional entre corpos e é limitada por quantidades finitas de energia. Por outro lado, a astronomia dinâmica se depara constantemente com sistemas naturais que apresentam a complexidade advinda desta mesma não linearidade originária da atração gravitacional entre os corpos. O propósito deste minissimpósio é o de apresentar e discutir os fundamentos matemáticos dos métodos que são utilizados para se estudar problemas da astronomia dinâmica, bem como, chegar às estratégias de transferência orbital adequadas a cada cenário de missão espacial desejado. Os aspectos relacionados as limitações tecnológicas na implementação das várias estratégias e suas perspectivas de evolução também serão consideradas. As técnicas abordadas serão as baseadas em (1) Otimização; (2) Teoria de Sistemas Dinâmicos; (3) Assistência Gravitacional; (4) Empuxo Contínuo; (5) Métodos Numéricos. Estes métodos serão abordados pelos palestrantes de acordo com as aplicações envolvidas.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS3: Satélites Artificiais e Astronomia Dinâmica: Evolução Orbital, Transferências Orbitais e seus Fundamentos Matemáticos
Coordenadores: Elbert Einstein Nehrer Macau (INPE/UNIFESP) e Othon Cabo Winter (UNESP)
Local:  A ser definido
08:15-08:45

Astrodynamics in Large Scale for Controling Climate Change
Francisco J. T. Salazar (UNESP, Guaratinguetá, SP)

08:45-09:15 Determination of Distributed Forces on Webs of Elastic Lines
Alexandre Kawano (USP)
09:15-09:45 Inverse Scattering on Asymptotically Hyperbolic Manifolds
Raphael Falcão da Hora (UFSC)
09:45-10:15

Solução Numérica de Problemas Inversos em Neurociência
Jemy Valle (LNCC)

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS1: New Trends in Inverse Problems
Coordenadores: Vinícius Viana Luiz Albani (UFSC) e Antônio Carlos Gardel Leitão (UFSC)
Local: A ser definido
14:00-14:30

A Projection Strategy for Choosing the Regularization Parameter of Iterated Tikhonov Method in Banach Spaces
Fabio Margotti (UFSC)

14:30-15:00

Problemas Inversos em Biotransferência de Calor
Helcio Orlande (COPPE-UFRJ)

15:00-15:30

Local Volatility Calibration with Applications
Jorge Passamani Zubelli (IMPA)

15:30-16:00

Wave Scattering: Inverting from Theory to Practice
Wagner Barbosa Muniz (UFSC)

Coordenadores: Helenice de Oliveira Florentino Silva (Unesp – Botucatu/SP), Franklina Toledo (USP – São Carlos/SP) e Antônio Roberto Balbo (Unesp – Bauru/SP)

Resumo: A Otimização é atualmente uma área de intensa pesquisa e suas aplicações têm ocorrido em todos os ramos das Ciências. Esta área passou por diversas e importantes modificações ao longo dos anos. A capacidade de resolver problemas complexos melhorou muito devido a diversos fatores, como o desenvolvimento de algoritmos aproximativos, aprimoramento de métodos exatos, disponibilidade de softwares rápidos e confiáveis, baixo custo dos hardwares e o desenvolvimento de linguagens de alto nível. Mesmo assim, a otimização ainda tem muitos desafios a serem superados. Neste contexto, este minissimpósio objetiva reunir pesquisadores que trabalham com novas formulações em otimização combinatória e aplicações. Visando criar um fórum de discussão de pesquisas ligadas a Otimização dentro do CNMAC-2017; integrar pesquisadores da área de otimização dando possibilidades de novas colaborações; atrair interessados em temas relacionados à otimização, de forma a dar dinamismo às discussões de pesquisa recentes e despertar interesse em jovens pesquisadores, proporcionar uma discussão sobre as pesquisas dos participantes, seus projetos, dificuldades e integrações de pesquisa.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS4: Otimização: Desafios e Perspectivas
Coordenadores: Helenice de Oliveira Florentino Silva (Unesp), Franklina Toledo (USP) e Antônio Roberto Balbo (Unesp)
Local:  A ser definido
14:00-14:30

Problemas Otimização de Grande Porte em Logística: Teoria e Aplicações
Pedro Munari (UFSCAR)

14:30-15:00 Data Mining in Combinatorial Optimization
Alexandre Plastino (UFF)
15:00-15:30 Mathematical Models and Solutions Approaches for a Biojective Cutting Stock Problem
Socorro Rangel (Unesp)
15:30-16:00

Resolução Exata de Problemas de Otimização NP-difíceis em Geometria Computacional
Cid C. Souza (Unicamp)

Resumo das Palestras:

Problemas Otimização de Grande Porte em Logística: Teoria e Aplicações

Palestrante: Prof. Dr. Pedro Munari (Departamento de Engenharia de Produção; UFSCar - Universidade Federal de São Carlos, SP)

Resumo: A importância do uso de modelos matemáticos no apoio à tomada de decisão já é reconhecida e difundida em diversas empresas, principalmente nas que buscam se manter eficientes e competitivas. Problemas de otimização que surgem nesses contextos são em geral de grande porte e bastante desafiadores do ponto de vista computacional, sendo assim imprescindível recorrer-se a abordagens de solução sofisticadas e que combinem diferentes tipos de métodos. Nesta palestra, aborda-se o uso de técnicas de reformulação, como as decomposições de Dantzig-Wolfe e Benders, bem como os métodos de solução relacionados, como geração de colunas, métodos de planos de corte e métodos branch-price-and-cut. Em particular, dá-se o enfoque às técnicas de estabilização usando o algoritmo de pontos interiores, que podem resultar em melhorias significativas no desempenho computacional desses métodos. Além disso, o uso de heurísticas e meta-heurísticas nesse contexto permite a obtenção de métodos híbridos com grande potencial para a resolução de problemas reais, em tempos computacionais adequados para a tomada de decisão em tempo hábil. Resultados computacionais com variantes do Problema de Roteamento de Veículos, motivadas pela interação com empresas, ilustram a importância prática do uso das estratégias de solução apresentadas.

Data Mining in Combinatorial Optimization

Palestrante: Prof. Dr. Alexandre Plastino de Carvalho (Departamento de Ciência da Computação, IC/UFF - Instituto de Computação da Universidade Federal Fluminense, RJ)

Resumo: Recent research has shown that the hybridization of heuristics with data mining techniques is a powerful mechanism to develop more robust and efficient methods to solve hard combinatorial optimization problems. Data mining refers to the automatic recognition and extraction of knowledge from datasets in terms of patterns and rules. The basic idea of using data mining inside a heuristic is to obtain knowledge from previous iterations performed by the heuristic to improve the search in next iterations. Patterns extracted from previously obtained high-quality solutions are used to guide the search, leading to a more effective exploration of the solution space. In this talk, we will see how this type of hybridization is designed and survey the good results of its practical applications in different combinatorial optimization problems. Based on these results we will conclude that heuristics which incorporate data mining procedures may obtain better solutions in less computational time.

Mathematical models and solutions approaches for a biojective cutting stock problem

Palestrante: Profª. Drª. Maria do Socorro Nogueira Rangel (Departamento de Matemática Aplicada; IBILCE/UNESP - Instituto de Biociências Letras e Ciências Exatas, UNESP São José do Rio Preto, SP)

Resumo: The decisions associated with the cutting stock problem (CSP) are usually taken considering a set of conflicting objectives and, in general, there is not a single solution that attends all of them. An example is the definition of a cutting plan that minimizes the total waste and maximize the cutting machine productivity. The literature on multiobjective combinatorial optimization is quite extensive, however, only a few papers address the multiobjective CSP. In this work we present mathematical models and a biobjective computational study of the CSP taking into account the minimization of waste and the possibility of cutting several objects simultaneously (maximizing the productivity of the cutting machine).

Resolução Exata de Problemas de Otimização NP-difíceis em Geometria Computacional

Palestrante: Prof. Dr. Cid Carvalho de Souza (Instituto de Computação;UNICAMP - Universidade Estadual de Campinas, Campinas, SP)

Resumo: São vários os problemas de Otimização NP-difíceis que são investigados por pesquisadores na área de Geometria Computacional e para os quais nenhum algoritmo exato foi proposto e/ou testado experimentalmente. O tratamento comumente dado a estes problemas se concentra principalmente no desenvolvimento de algoritmos aproximados. Ocorre que, na prática, tais algoritmos frequentemente produzem uma solução com custo bastante afastado do ótimo. Nesta palestra será mostrado que instâncias de grande porte de alguns problemas geométricos podem ser resolvidos à otimalidade ao se combinar, de forma engenhosa, técnicas de programação linear inteira com o conhecimento de propriedades geométricas específicas do problema sendo tratado. Dentre os exemplos bem-sucedidos de aplicação da metodologia, será discutido o célebre Problema da Galeria de Artes. Os resultados positivos alcançados neste e em diversos outros problemas geométricos criam uma nova perspectiva para a aplicação de técnicas de Otimização usualmente empregadas em Pesquisa Operacional.

 

 

Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)

Resumo: O VIII WWlet: Wavelets & Aplicações estará congregando de jovens personalidades científicas a pesquisadores bastante experientes nesta área do conhecimento e no desenvolvimento de aplicações utilizando wavelets e áreas correlatas. O WWlet está formulado com uma abordagem abrangente, traduzindo esforços de importância significativa para desenvolvimentos científicos e tecnológicos no país. Este minissimpósio diz respeito às pesquisas, desenvolvimentos e aplicações envolvendo a análise wavelet, que pode ser entendida simplificadamente como uma forma de tratar sinais multidimensionais ou um método adaptativo para lidar com equações diferenciais parciais. Diferente de outra técnica clássica bastante usada, as técnicas empregando wavelet propiciam tratar com a informação em um compromisso conjugado de tempo e bandas de frequência/períodos/escalas ou mais genericamente a variável de localização e as bandas de frequência do sinal ou função analisadas. Tais características permitem aplicações práticas de grande relevância, como a compressão de imagens, uma análise mais ampla de imagens e sinais, a identificação de estruturas em imagens e sinais e desenvolvimento de métodos numéricos adaptativos para a solução de equações diferenciais parciais, ou regularização delas, e estudos de controle. Neste evento constitui campo propício a desafios, um enfoque à área de aplicações. Uma importante contribuição do WWlet é o fortalecimento das redes de pesquisa e de aplicações dessa técnica, por permitir integrar neste evento pesquisadores, com a nucleação de novos grupos e discussão de futuras atividades, fomentando uma maior disseminação de conhecimentos para as mais diversas áreas em que potencialmente podem ser aplicadas.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS5: VIII WWlet – Wavelets e Aplicações
Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)
Local:  A ser definido
08:15-08:55

Multiresolution Analysis of Magnetic Field Fluctuations in the Jupiter’s Magnetotail
Ezequiel Echer (DGE/CEA/INPE)

08:55-09:35 Study About Spectral Properties of the Global, Hemispheric and Latitudinal Air Surface Temperature Series from NASA/GISS Database and Sunspot Number by Wavelet Analyses
Mariza Pereira de Souza Echer (PNPD/CAPES- GES/INPE)
09:35-10:15

Forecasting with Wavelet Hybrid Models
Eniuce Menezes de Souza (UEM)

 

                                                               Quinta-feira, 21 de setembro de 2017
14:00-16:00 MS5: VIII WWlet – Wavelets e Aplicações
Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)
Local: A ser definido
14:00-14:30

Wavelet Criteria in Magnetohydrodynamics Modelling Using the Parallel Framework AMROC
Ralf Deiterding (University of Southampton)

14:30-15:00

Adaptive Multiresolution Using Sparse Point Representation with a Three-dimensional Resistive Parallel Gobal MHD Model
Maibys Sierra Lorenzo (Universidade de Havana)

15:00-15:30

High Order Time Synchronisation in Multiresolution Adaptive Models
Müller Lopes (CAP/INPE)

15:30-16:00

Tridimensional MHD Resistive Models with Adaptive Multiresolution and Appplications to Space Physics
Anna K. F. Gomes (CAP/INPE)

 

Coordenadores: Cristiane Oliveira de Faria (IME), Sandra Mara Cardoso Malta (LNCC)

Resumo: Este minissimpósio tem como objetivo principal homenagear o Prof. Abimael Fernando Dourado Loula (LNCC-MCTIC) no seu 70º aniversário. Suas contribuições na área de Análise Numérica de Elementos Finitos têm sido significativas e relevantes, tanto no Brasil como no exterior. O Prof. Abimael Loula, na sua vida acadêmica, vem continuadamente desenvolvendo pesquisas básica e aplicada na Matemática Aplicada e Engenharias, formando assim doutores que atuam e promovem essas áreas nas suas instituições de pesquisa e ensino. Neste encontro, composto por colaboradores e ex-alunos, serão então tratados temas relacionados à análise numérica de elementos finitos (formulações, estimativas de erro e simulações computacionais) aplicados na resolução de problemas acoplados em elasticidade, poroelasticidade, meios porosos e ondas harmônicas no tempo, por exemplo.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS6: Análise Numérica de Métodos de Elementos Finitos
Coordenadores: Cristiane Oliveira de Faria (IME) e Sandra Mara Cardoso Malta (LNCC)
Local:  A ser definido
08:15-08:45

A Review of Stabilized Hybrid Descontinuous Galerkin Methods Proposed by Abimael Loula
Cristiane Oliveira de Faria (IME/UERJ)

08:45-09:15 Stabilized Finite Element formulation for Elastic Rods of Arbitrary Geometry
Antônio José Boness dos Santos (UFPB)
09:15-09:45

Mixed Finite Element Approximations for 3D Elliptic Problems with Arbitrary Order of Divergence Accuracy
Sônia Gomes (Unicamp)

09:45-10:15 Some Comments on the Computational Modeling of the Electrokinetic Remediation Technique
Gustavo Benitez (UFF)

 

                                                               Quinta-feira, 21 de setembro de 2017
14:00-16:00 MS6: Análise Numérica de Métodos de Elementos Finitos
Coordenadores: Cristiane Oliveira de Faria (IME) e Sandra Mara Cardoso Malta (LNCC)
Local: A ser definido
14:00-14:30

Continuous /Discontinuous Galerkin Methods  Applied to the Stokes Problem
Eduardo Dutra do Carmo (UFRJ)

14:30-15:00

A Computational Predictive Model for Turbidity Currents: From the Basic Physics to Validation
Fernando Rochinha (UFRJ)

15:00-15:30

On Stable and Stabilized Mixed Finite Elements for Elliptic Problems
Maicon Correa (Unicamp)

15:30-16:00

Multi-Scale Reservoir Modeling Incorporating Geological Complexity
Marcio Murad (LNCC/MCTIC)

 

Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Ritto (UFRJ)

Abstract: Recent developments in computational and sensing resources provide us the ability to infer about physical phenomena with increasingly detailed resolutions and to better characterize the interplay between experimentally observed cause and effect. In many problems of interest, this interplay is best described in a non-deterministic framework, permitting the description of experimental errors and inaccuracies, modeling errors and inadequacies, as well as numerical approximations. These uncertainties conspire, with interpretation and analysis tools, to affect the predictive power of accumulated knowledge. This workshop will bring together current research efforts attempting to characterize and manage uncertainties in various stages of the prediction process. Also the visualization of uncertainties in order to help the decision-making process. In particular, research in the following areas will be highlighted: (1) experimental data representation; (2) data assimilation and inverse analysis; (3) uncertainty propagation; (4) non-deterministic computational modeling; (5) optimization and design under uncertainty; (6) visualization of uncertainties; (7) stochastic modeling; (8) surrogate models; (9) model-order reductions; (10) small probability events; (11) application examples and case studies and (12) Bayesian inference.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS7: Modelagem Estocástica e Quantificação de Incertezas
Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Gamboa Ritto (UFRJ)
Local:  A ser definido
08:15-08:45

Stochastic Model for the Drill String Bit-rock Interaction
Fabio F. Real (INMETRO), Anas Batou (University of Liverpool), Thiago G. Ritto (UFRJ), Christophe Desceliers (Université Paris-Est)

08:45-09:15 Abordagem Bayesiana para a Calibração de um Modelo Não-Local de Viga de Euler-Bernoulli a Partir de Dados no Domínio do Tempo
Daniel Alves Castello (UFRJ) e Leonardo Tavares Stutz (UERJ)
09:15-09:45

Breeding Approach for Predictability Classification Applied to the CPTEC-INPE Atmospheric Global Prediction Mode
Luis Fernando Salgueiro Romero (INPE), Sandra A. Sandri (INPE), Haroldo F. de Campos Velho (INPE)

09:45-10:15 Electromechanical System with Stochastic Dry Friction
Roberta Q. Lima (PUC-Rio), Rubens Sampaio (PUC-RIO)

 

                                                               Sexta-feira, 22 de setembro de 2017
08:15-10:15 MS7:Modelagem Estocástica e Quantificação de Incertezas
Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Ritto (UFRJ)
 
Local: A ser definido
08:15-08:45

Modelos Lineares Generalizados Dinâmicos – Abordagem de Geometria da Informação
Raíra Marotta Bastos Vieira (UFRJ), Mariane Branco Alves (UFRJ), Helio S. Migon (UFRJ)

08:45-09:15

Uncertainty and Maximal Entropy
Rubens Sampaio (PUC-Rio) e Roberta Q. Lima (PUC-Rio)

09:15-10:15

Blending Frequentist and Bayesian Methods to Obtain a P-value and an Optimal Level of Significance
Carlos Alberto de Bragança Pereira (USP-SP)

RESUMO DAS PALESTRAS

Stochastic model for the drill string bit-rock interaction

Autores: Fabio F. Real (INMETRO), Anas Batou (University of Liverpool), Thiago G. Ritto (UFRJ), Christophe Desceliers (Université Paris-Est)

Abstract: this paper aims at contructing a stochastic model for the bit-rock interaction of a drill string using field data. The proposed model takes into account the fluctuations of the stick-slip oscillations observed during the drilling process. A nonstationary random process is added to the mean torque curve (nonlinear function of the bit speed). This nonstationary process consists of a centered stationary process multiplied by a nonlinear function, which represents the variation of the fluctuations with the bit speed. First, the parameters of the mean nonlinear torque curve are identified with the least square method. Sencondly, a nonlinear function with the same shape of the nonlinear torque function is proposed for the fluctuations variation, which is also a function of the bit speed. Thirdly, a centered stationary process indexed by the bit speed is proposed. Fourthly, an approximation of the experimental power spectral density of the centered stationary process is considered. Finally, independent trajectories of the proposed stochastic model are generated and used to simulate the stochastic response of the drill string torsional dynamics in presence of random bit-rock interaction.

Abordagem Bayesiana para a Calibração de um Modelo Não-Local de Viga de Euler-Bernoulli a Partir de Dados no Domínio do Tempo

Autores:  Daniel Alves Castello (UFRJ) e Leonardo Tavares Stutz (UERJ)

Resumo: O presente trabalho apresenta uma abordagem para a calibração de modelos elásticos não-locais. As estruturas de interesse são vigas cujas equações constitutivas consideram a Teoria da Elasticidade Não-Local de Eringen. Os modelos computacionais são construídos a partir do Método dos Elementos Finitos. A Formulação Bayesiana é utilizada para a calibração do modelo. O Método de Monte Carlo com Cadeias de Markov, através do o algoritmo de amostragem Delayed Rejection Adaptive Metropolis (DRAM), é adotado para exploração da distribuição. A aplicação considera um nanotubo de carbono de parede única como nanoviga.

Breeding approach for predictability classification applied to the CPTEC-INPE atmospheric global prediction model
Autores: Luis Fernando Salgueiro Romero (INPE), Sandra A. Sandri (INPE), Haroldo F. de Campos Velho (INPE)
Abstract: Numerical weather prediction was a scientific conquer from 20 century, with a significant impact over many society activities. One important issue is the degree of reliability associated to the forecasting. A kind of Monte Carlo method, called "ensemble prediction", has been the standard scheme for addressing the predictability, allowing to compute the forecast confidence interval. Here, the predictability is described as a classification problem. Firstly, the bred vector (BV) is calculated. BV is computed from the difference between a reference forecasting and a prediction executed with a slightly perturbed initial condition. The BV is employed as an input for a classifier, indicating the predictability class for the forecasting. Five classes were defined, from very high up to very low confidence. Classifiers from artificial intelligence approaches were used: neuro-fuzzy, neural networks, neuro-hierarchical, and committee machines.


Electromechanical system with stochastic dry friction

Autores: Roberta Lima (PUC-Rio) e Rubens Sampaio (PUC-Rio)

Abstract: This work analyzes the stochastic nonlinear dynamics of an electromechanical system with dry-friction. The system is composed of a cart, whose motion is excited by a DC motor. The coupling between the motor and the cart is made by a mechanism called scotch yoke, so that the motor rotational motion is transformed in horizontal cart motion over a rail. Different models are assumed for the imposed source voltage of the motor. The developed models of the systems take into account the influence of the coupling between the cart and motor in the dynamic behavior of the system. Beside of this, they consider the existence of stochastic dry friction between the cart and the rail. Due to the friction, the resulting motion of the motor can be characterized by two qualitatively different modes, the stick- and slip-modes, with a non-smooth transition between them. The focus of the work is finding, from a stochastic point of view, the stick- and slip-mode parts of the trajectory for different values of the system parameters.

Modelos Lineares Generalizados Dinâmicos – abordagem de geometria da informação

Autores: Raíra Marotta Bastos Vieira (UFRJ), Mariane Branco Alves (UFRJ), Helio Migon (UFRJ)

Resumo: Nesta apresentação uma nova proposta de conciliação de prioris e apresentada e aplicada a classe dos modelos lineares dinâmicos generalizados. Conceitos de geometria da informação, tais como os teoremas Pitagoriano e da projeção são utilizados. Resumidamente, a priori induzida pelo vetor de estados na geodésica da distribuição induzida pela priori conjugada e depois compatibilizá-las, o que possibilita explorar a analise conjugada e o uso da estimação linear de Bayes. Aplicações a dados artificiais demonstram a eficiência do método proposto.


Uncertainty and Maximal Entropy

Autores: Rubens Sampaio (PUC-Rio) e Roberta Lima (PUC-Rio)

Abstract: There is a lot of discussions about uncertainty quantification and propagation of uncertainty. The objective of the paper is to discuss the different forms of uncertainty quantification found in the literature, where the concept is reduced to some statistics, and show with examples that they are not compatible.  If one is right the other cannot be. The concepts of Entropy in Thermodynamics, Classical and Statistical, and Information are discussed and related. The visions of Clausius, Gibbs, Boltzmann, Jaynes about Entropy are discussed, as well as the roles of Bayes, Laplace, Jeffrey, in the     Principle of Maximal Entropy for the construction of probabilistic models.  Some exemples re given.


Blending Frequentist and Bayesian Methods to Obtain a P-value and an Optimal Level of Significance

Autor: Carlos Alberto de Bragança Pereira (USP-SP) – Keynote Lecture

Abstract: P-value is an index of evidence on the validity of a (null) hypothesis being tested. This is the common understanding in the use of significance tests. The usual canonical values are 1%, 5% and 10% regardless of sample size. A paradox arises precisely because the level of significance is not related to sample sizes: "We increase the sample size to reject the null hypothesis." The present work aims to find the optimal significance level for each sample size and then to present an adaptive P-value. The result of a hypothesis test will depend on two values: A P that depends on both the observed value x and the level of signifi-cance α that is sample size dependent: P(x) and α(n). To be able to use the correct definition of P-value - probability of the set of points more extreme (in relation to the null hypothesis) than the observed x - it is necessary to define an order in the sample space. The extended Neyman-Pearson test demonstrates that the optimal test depends on the likelihood ratio and weights given to the two types of error. These weights will define the importance that would be given for the two types of error, α and β.  The optimal level of significance will be the α* which minimizes Aα + Bβ, considering the weights A and B. Our blended P-value consists of using the Bayes Factor (prior-odds multiplied by the likelihood ratio) of each possible sample observation to order the sample space. The P-value, calculated in this way and using the level of significance adapted for decision making, is dimensionless and does not violate the likelihood principle. Our calculation is a comparison of the conditional predictive functions.

 

Coordenadores: Lilian Nasser (UFRJ), Claudia Segadas (UFRJ), Lucia Tinoco (UFRJ)

Resumo: O país está passando por uma fase de reformas na Educação Básica, que demanda atenção e participação da comunidade educacional, no sentido de contribuir e opinar de modo que os novos programas atendam às necessidades dos corpos docente e discente. A reforma do Ensino Médio é urgente, frente ao baixo desempenho dos alunos brasileiros nas avaliações de larga escala, tanto nacionais como internacionais, como o PISA. A Base Nacional Comum Curricular (BNCC), proposta recentemente pelo MEC, apresenta diversas modificações em relação ao currículo do Ensino Fundamental e do Ensino Médio. O MEC deu oportunidade à comunidade de opinar sobre os objetivos propostos na primeira versão, lançada em setembro de 2015. Levando em consideração as críticas e sugestões, foi lançada, então, a segunda versão da BNCC em abril de 2016 (BRASIL, 2016), ainda em discussão. Este minissimpósio tem o objetivo de analisar as propostas de reforma em relação aos conteúdos e abordagens da Matemática tanto no Ensino Fundamental, como no Ensino Médio, focando em quatro temas. Cada palestra abordará um desses temas, analisando os pontos positivos e negativos da nova proposta, e discutindo estratégias de ensino.

Programação:

                                                            Quinta-feira, 21 de setembro de 2017
14:00-16:00  MS8: Propostas Curriculares Recentes para a Matemática do Ensino Fundamental e Médio – Aspectos Relevantes
Coordenadores: Lilian Nasser (UFRJ), Claudia Segadas (UFRJ), Lucia Tinoco (UFRJ)
Local: A ser definido
14:00-14:30

Proporcionalidade e Álgebra
Lucia Tinoco (UFRJ)

14:30-15:00

Matemática Inclusiva
Claudia Segadas (UFRJ)

15:00-15:30

Educação Financeira
Marcelo Torraca (UFRJ)

15:30-16:00 Funções e vetores no Ensino Médio
Lilian Nasser (UFRJ)

Coordenadores: Carlos Antonio de Moura (UERJ)

Resumo: Como respirar, modelos matemáticos estão presentes em nossa vida com tanta naturalidade que chegamos a ignorá-los, desconhecê-los, sem pensar que são apenas uma modelagem, uma simulação: com seu emprego, fingimos que o fenômeno sob análise se reduz a algumas relações, escolhidas com uma série de vieses e limitações, vínculos e restrições. Os modelos com que trabalhamos são discretos ou contínuos, com variáveis determinísticas ou aleatórias, diferenciais, estatísticos, transientes ou estáticos, de otimização, de controle – as classificações dependem das técnicas, dos interesses, dos objetivos, etc. Passam a gozar de nossa intimidade e a eles atribuímos poderes: “este sistema governa tal fenômeno". Governa? Propomos neste minissimpósio uma discussão dos conceitos, técnicas e aplicações da modelagem matemático-computacional sob pontos de vista prático, técnico, filosófico, histórico, didático, ético, étnico, estético e místico, com base nas visões de U. d'Ambrozio, R. Hersh, P. Dirac, M. Kritz e J. Helayël-Neto, os dois últimos propostos como debatedores.

Programação:

                                                          Sexta-Feira, 22 de setembro de 2017
08:15-10:15  MS9: Matemática e Modelos – Estrada de Mão Dupla
Coordenadores: Carlos A. de Moura (UERJ)
Local: A ser definido

08:15-08:40

Distintas visões da modelagem matemática
Carlos A. de Moura (UERJ)

08:40-09:15

Vá aonde te leva a Matemática
J. A. Helayël Neto (CBPF)

09:15-09:50

From Systems to Organizations, towards a Second Generation General Systems Theory
Maurício V. Kritz (LNCC)

09:50-10:15 Discussão

 

Coordenadores: Leonardo Bacelar Lima Santos (Centro Nacional de Monitoramento e Alertas de Desastres Naturais, São José dos Campos/SP) e Tiago Carvalho (Instituto Federal de São Paulo, Campinas/SP).

 

Resumo: Em 2016 a SBMAC aprovou a criação do Comitê Temático "Matemática Aplicada a Pesquisas Relacionadas a Desastres Naturais". Este minissimpósio congregará pesquisadores (com destaque a jovens doutores) com pesquisas na interface entre matemática, computação e desastres naturais. A seção será realizada em dois momentos, cada um com 2h de duração. Fora do horário da seção, para todos que se interessarem, será efetuada uma visita às instalações do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), situado no mesmo Campus do Departamento de Matemática da Universidade Federal de São Paulo (UNIFESP) e da Faculdade de Tecnologia (FATEC) de São José dos Campos/SP, sedes do CNMAC 2017.

Programação:

                                                          Sexta-Feira, 22 de setembro de 2017
14:00-16:00

MS10: Matemática e Desastres Naturais

Coordenadores: Leonardo Bacelar Lima Santos (Cemaden, São José dos Campos/SP) e Tiago Carvalho (IFSP, Campinas/SP)
Local: A ser definido
14:00-14:20

Desastres Socioambientais Ocorridos no Estado de São Paulo, Período 2000-2015: Banco de Dados, Análises e Perspectivas
Camila B. Martins (UNIFESP)

14:20-14:40

Processos Estocásticos Aplicados a Hidrologia
Solon V. Carvalho (INPE)

14:40-15:00 Inversão Magnetotelúrica e Aplicações ao Mapeamento do Aquífero Guarani
Cássio Stein Moura (PUC-RS) [a confirmar]
15:00-15:20

Calibração de Modelos Hidrológicos
Wagner Telles (UFF)

15:20-15:40 Neuroprevisão Hidrológica
Glauston Lima (Cemaden)
15:40-16:00 Perspectivas em "Matemática & Desastres" - Lista para Visita à Sala de Monitoramento e Alertas do Cemaden
Leonardo B. L. Santos (Cemaden)

Mesa-redonda

Debatedores:Marco Antonio Raupp (Diretor Geral do Parque Tecnológico de São José dos Campos), Nehemias Lacerda (CEO da empresa Femto Ciências Aplicadas), Paulo Lorenção (Coordenador do Programa de Especialização em Engenharia da Embraer) e Marcelo Dantas de Carvalho (Diretor de Planejamento, Controle e Risco de Mercado do Banco Safra)

Resumo: É notório o papel estratégico da inovação tecnológica para o desenvolvimento econômico e social do Brasil. Qual é e qual deveria ser a participação da matemática nesse processo? O que as universidades e institutos de pesquisa podem fazer para alavancar a contribuição da matemática em prol da inovação nas indústrias brasileiras? E o que as indústrias estão fazendo e o que deveriam fazer nessa direção? Para debater essas e outras questões envolvendo a matemática, a inovação, a relação universidade-empresa, e temas correlatos que permeiam todas as subáreas da matemática aplicada e computacional esperamos a presença de todos os congressistas em uma das primeiras atividades do CNMAC 2017.